Archiv der Kategorie: Lernfähigkeit

KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen
Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen
Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen
Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DAS WAS MENSCHSEIN AUSMACHT. Eine Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 8.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

  1. Während der Auseinandersetzung mit dem Buch von Edelman gab es unterschiedliche Wechselwirkungen mit anderen gedanklichen Prozessen. Ein Thema hier ist eine mögliche grundlegende Typologie von ‚Intelligenz‘.

  2. Vorab müsste man das Verhältnis des Begriffs ‚Intelligenz‘ zu Begriffen wie ‚Lernen‘, ‚Bewusstsein‘, ‚Geist‘ und ‚Gehirn‘ klären. Hier nur soviel, dass alle diese Begriffe ein ‚Gehirn‘ – oder eine vergleichbare materielle Struktur – zum Funktionieren voraussetzen. Allerdings kann das bloße Vorhandensein solcher materieller Strukturen nicht garantieren, dass es dann auch so etwas wie ‚Geist‘, ‚Bewusstsein‘, ‚Lernen‘ und ‚Intelligenz‘ gibt.

  3. Der Begriff ‚Geist‘ wird im Englischen als ‚mind‘ gerne und oft benutzt, um Besonderheiten im Verhalten des Homo sapiens zu ‚markieren‘. Allerdings ist dieser Begriff sehr diffus und bislang in keiner Theorie hinreichend erklärt.

  4. Meistens werden die Begriffe ‚Bewusstsein‘ und ‚Geist‘ sehr ähnlich benutzt, ohne dass deren Beziehung zueinander – wegen einer fehlenden Theorie – letztlich klar ist. Da unser ‚Zugang‘ zum Phänomen ‚Geist‘ irgendwie über das beobachtbare Verhalten und das ‚Bewusstsein‘ läuft, ist der Begriff ‚Geist‘ eher ein theoretischer Begriff innerhalb einer Theorie, die man auf der Basis von Bewusstseinsdaten formulieren würde. Mit dem Begriff ‚Bewusstsein‘ wäre dies ähnlich: würden wir alle erreichbaren Daten aus der 1.Person und 3.Person Perspektive sammeln, könnten wir eine Theorie bauen, die den theoretischen Term ‚Bewusstsein‘ enthält und damit indirekt ‚erklärt‘. Paradox würde es, weil der Begriff ‚Bewusstsein‘ dann nicht nur eine theoretische Beschreibung ‚von etwas‘ wäre, also einen ‚Gegenstand‘ der Beschreibung bilden würde, sondern zugleich auch den ‚Autor‘ der ‚Beschreibung‘ repräsentieren würde, allerdings nur indirekt. Der so theoretisch beschriebene ‚Gegenstand Bewusstsein‘ würde wesentliche Eigenschaften nicht enthalten. Für diesen Fall eines ‚Gegenstandes‘ der zugleich ‚Autor‘ ist gibt es bislang keinen akzeptierten Theoriebegriff.

  5. Der ‚wissenschaftliche Intelligenzbegriff‘ orientiert sich am beobachtbaren Verhalten und definierten Referenzpunkten. Dieses Verfahren wurde seit gut 100 Jahren auf den Homo sapiens angewendet und dann auf viele andere biologische Systeme verschieden vom Homo sapiens. Man könnte grob von ‚Menschlicher Intelligenz‘ sprechen und von ‚Tierischer Intelligenz‘ mit vielen Überschneidungen.

  6. Daneben gibt es heute eine ‚Maschinelle Intelligenz‘, die bislang aber in keiner allgemein akzeptierten Form beschrieben und untersucht wird. Die Beziehung zur ‚menschlichen‘ und ‚tierischen‘ Intelligenz wurde bislang nicht systematisch untersucht.

  7. Im Alltag, in den Medien, in der Kunst gib es eine ‚fiktive Intelligenz‘, der man nahezu alles zutraut, ohne dass klar ist, ob dies wirklich möglich ist. Die ‚fiktive Intelligenz‘ ist gleichsam eine Art ‚Sammelpunkt‘ aller Projektionen von dem, was Menschen sich unter ‚Intelligenz‘ vorstellen können.

  8. Durch die Koexistenz von Menschen und neuer Informations-Technologie kann es zu einer neuen ‚hybriden Intelligenz‘ kommen, in der menschliche und maschinelle Intelligenz auf neue Weise symbiotisch zusammen wirken. Dazu gibt es bislang kaum Forschungen; stattdessen versucht man, die maschinelle Intelligenz möglichst unabhängig vom Menschen und oft in Konkurrenz und im Gegensatz zu ihm zu entwickeln. Zugleich verbleibt die Forschung zur menschlichen Intelligenz auf niedrigem Niveau; viele – die meisten? – wichtigen Eigenschaften sind weiterhin unerforscht. Beides zusammen blockiert die Entwicklung von wirklich starken, neuen Intelligenzformen.

  9. Durch die ungelöste Paradoxie von zugleich ‚Gegenstand‘ und ‚Autor‘ bleiben viele wichtige, vielleicht die wichtigsten, Eigenschaften menschlicher Intelligenz im Verborgenen. Es gibt hier einen Erkenntnismäßigen ‚blinden Fleck‘ der nur sehr schwer aufzulösen ist.

  10. Wenn man sieht, wie in vielen Ländern dieser Erde, auch in jenen, in denen man glaubte, viele ‚primitive‘ Sichten zur Welt, zum Leben, zum Menschen überwunden zu haben, große Teile der Bevölkerung und der politischen Leitinstitutionen wieder in solche ‚primitiveren‘ Sichten und Verhaltensweisen zurückfallen und darin zunehmend Anhänger finden, dann kann man dies als Indikator dafür nehmen, dass differenziertere, komplexere Sichten des Lebens und die dazu gehörigen Verhaltenskomplexe keine Automatismen darstellen. Nur weil jemand, eine Gruppe, eine Population zu einer bestimmten Zeit einmal eine ‚Einsicht‘ hatte, ein aus dieser Einsicht resultierendes ‚praktisches Lebenskonzept umgesetzt hat‘, folgt nicht automatisch, dass diese Einsicht in den Individuen der Population ‚am Leben bleibt‘. Die Struktur und Dynamik eines einzelnen Homo-sapiens-Exemplars ist von solch einer Komplexität, dass nur maximale Anstrengungen dieses Potential an Freiheit zu einer ‚konstruktiven Lebensweise‘ motivieren können. Dabei ist das Wort ‚motivieren‘ wichtig. Im Homo sapiens kulminiert die ‚Freiheit‘, die sich in der Materie und Struktur des gesamten Universums samt den biologischen Strukturen grundlegend findet, zu einem vorläufigen ‚Optimum‘, das sich jeder vollständigen ‚Verrechnung‘ in fixierte Strukturen widersetzt. Man kann einen Homo sapiens einsperren, töten, mit Drogen willenlos machen, durch Entzug von materiellen Möglichkeiten seiner Realisierungsbasis berauben, durch falsche Informationen und Bildungen fehlleiten, man kann aber seine grundlegende Freiheit, etwas ‚Anderes‘, etwas ‚Neues‘ zu tun, dadurch nicht grundlegend aufheben. In der Freiheit jedes einzelnen Homo sapiens lebt potentiell die mögliche Zukunft des gesamten Universums weiter. Ein unfassbarer Reichtum. Die größte Lüge und das größte Verbrehen an der Menschlichkeit und am Leben überhaupt ist daher genau diese grundlegende Eigenschaft des Homo sapiens zu verleugnen und zu verhindern.

  11. Natürlich hat der Homo sapiens noch weitere grundlegende Eigenschaften über die zu sprechen gut tun würde.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

KÜNSTLICHE INTELLIGENZ (KI) – CHRISTLICHE THEOLOGIE – GOTTESGLAUBE. Ein paar Gedanken

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
24.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG

Der folgende Text wurde im September in einer christlichen Zeitschrift veröffentlicht [*]. Es war (und ist) ein ‚experimenteller Text‘, bei dem ich versucht habe, auszuloten, was gedanklich passiert, wenn man die beiden Themenkreise ‚Glaube an Gott im   Format christlicher Theologie‘ mit dem Themenkreis ‚Künstliche Intelligenz‘ zusammen führt. Das Ergebnis kann überraschen, muss aber nicht. Dieser ganze Blog ringt von Anbeginn um das Verhältnis von Philosophie, Wissenschaft (mit Technologie) und dem Phänomen der Spiritualität als Menschheitsphänomen, und die christliche Sicht der Dinge (die in sich ja keinesfalls einheitlich ist), ist nur eine Deutung von Welt unter vielen anderen. Wer die Einträge dieses Blogs durch mustert (siehe Überblick) wird feststellen, dass es sehr viele Beiträge gibt, die um die Frage nach Gott im Lichte der verfügbaren Welterfahrung kreisen. Die aktuelle Diskussion von W.T.Stace’s Buch ‚Religion and the Modern Mind‘ (Beginn mit Teil 1 HIER) setzt sich auch wieder   mit dieser Frage auseinander.

INHALT BEITRAG

Im Alltag begegnen wir schon heute vielfältigen Formen von Künstlicher Intelligenz. Bisweilen zeigt sie sehr menschenähnliche Züge. In Filmen werden uns Szenarien vorgeführt, in denen Superintelligenzen zukünftig die Herrschaft über uns Menschen übernehmen wollen. Wie verträgt sich dies mit unserem Menschen-und Gottesbild? Macht Glauben an Gott dann noch Sinn?

I. KI IST SCHON DA …

Vielen Menschen ist gar nicht bewusst, wo sie im Alltag schon mit Programmen der Künstlichen Intelligenz (KI) zu tun haben. Schaut man sich aber um, wird man entdecken, dass Sie scheinbar schon überall am Werk ist. Hier ein paar Stichworte: Kundenanfragen werden immer mehr durch KI-Programme bestritten. In der Logistik: In Lagerhallen und ganzen Häfen arbeiten intelligente Roboter, die wiederum von anderen KI-Programmen überwacht und optimiert werden. Ähnliches in Fabriken mit Produktionsstraßen. Für die Wartung von Maschinenbenutzen Menschen Datenhelme, die über ein KI-Programm gesteuert werden und die dem Menschensagen, was er sieht, und wo er was tun soll. In der Landwirtschaft sind die beteiligten Maschinen vernetzt, haben KI-Programme entweder an Bord oder werden über Netzwerke mit KI-Programmen verbunden: diese kontrollieren den Einsatz und steuern Maßnahmen. Auf den Feldern können diese Maschinen autonom fahren. Im Bereich Luftfahrt und Schifffahrt können sich Flugzeuge und Schiffe schon heute völlig autonom bewegen, ebenso beim LKW-Verkehr und auf der Schiene. Durch das Internet der Dinge (IoT) wird gerade der Rest der Welt miteinander vernetzt und damit einer zunehmenden Kontrolle von KI-Programmen zugänglich gemacht. In der Telemedizin ist dies schon Alltag: Ferndiagnose und Fernbehandlung sind auf dem Vormarsch. Schon heute wird für die Diagnose schwieriger und seltener Krankheiten KI eingesetzt, weil sie besser ist als ganze Gruppen menschlicher Experten. Viele komplizierte Operationen – speziell im Bereich Gehirn – wären ohne Roboter und KI schon heute unmöglich. KI-Programme entschlüsseln das Erbgut von Zellen, Suchen und Finden neue chemische Verbindungen und pharmakologische Wirkstoffe.

In der Finanzwirtschaft haben KI-Programme nicht nur den Handel mit Aktien und anderen Finanzprodukten übernommen (Stichwort: Hochfrequenzhandel), sondern sie verwalten auch zunehmend das Vermögen von Privatpersonen, übernehmen den Kontakt mit den Kunden, und wickeln Schadensfälle für Versicherungen ab. Bei anwaltlichen Tätigkeiten werden Routineaufgaben von KI-Programmen übernommen. Richter in den USA lassen sich in einzelnen Bundesländern mit KI-Programmen die Wahrscheinlichkeit ausrechnen, mit der ein Angeklagter wieder rückfällig werden wird; dies wird zum Schicksal für die Angeklagten, weil die Richter diese Einschätzungen in ihr Urteil übernehmen. Das Militär setzt schon seit vielen Jahren in vielen Bereichen auf KI-Programme. Zuletzt bekannt durchfliegende Kampfroboter (Drohnen). Dazu weltweite Ausspähprogramme von Geheimdiensten, die mit Hilfe von KI-Programmen gewaltige Datenströme analysieren und bewerten.Diese Aufzählung mag beeindruckend klingen, sie ist aber nicht vollständig. In vielen anderen Bereichen wie z.B. Spielzeug, Online-Spiele, Musikproduktion,Filmproduktion, Massenmedien, Nachrichtenproduktion,… sind KI-Programme auch schon eingedrungen. So werden z.B. mehr und mehr Nachrichtentexte und ganze Artikel für Online-Portale und Zeitungen durch KI-Programme erstellt; Journalisten waren gestern. Dazu hunderttausende von sogenannten ’Bots’ (Computerprogramme, die im Internet kommunizieren, als ob sie Menschen wären), die Meinungen absondern, um andere zu beeinflussen. Was bedeuten diese Erscheinungsformen Künstlicher Intelligenz für uns?

A. Freund oder Konkurrent?

Bei einem nächtlichen Biergespräch mit einem der berühmtesten japanischen Roboterforschern erzählte er aus seinem Leben, von seinen Träumen und Visionen. Ein Thema stach hervor: seine Sicht der Roboter. Für ihn waren Roboter schon seit seiner Kindheit Freunde der Menschen, keinesfalls nur irgendwelche Maschinen. Mit diesen Roboter-Freunden soll das Leben der Menschen schöner, besser werden können. In vielen Science-Fiction Filmen tauchen Roboter in beiden Rollen auf: die einen sind die Freunde der Menschen, die anderen ihre ärgsten Feinde; sie wollen die Menschen ausrotten, weil sie überflüssig geworden sind. Bedenkt man, dass die Filme auf Drehbüchern beruhen, die Menschen geschrieben haben, spiegelt sich in diesem widersprüchlichen Bild offensichtlich die innere Zerrissenheit wieder, die wir Menschen dem Thema Roboter, intelligenten Maschinen, gegenüber empfinden. Wir projizieren auf die intelligenten Maschinen sowohl unsere Hoffnungen wie auch unsere Ängste, beides übersteigert, schnell ins Irrationale abrutschend.

B. Neue Verwundbarkeiten

Ob intelligente Maschinen eher die Freunde der Menschen oder ihre Feinde sein werden, mag momentan noch unklar sein, klar ist jedoch, dass schon jetzt der Grad der Vernetzung von allem und jedem jeden Tag einen realen Raum mit realen Bedrohungen darstellt. Global operierenden Hacker-Aktivitäten mit Datendiebstählen und Erpressungen im großen Stil sind mittlerweile an der Tagesordnung. Während die einen noch versuchen, es klein zu reden, lecken andere schon längst ihre Wunden und es gibt immer mehr Anstrengungen, diesen Angriffen mehr ’Sicherheit’ entgegen zu setzen. Doch widerspricht das Prinzip der Zugänglichkeit letztlich dem Prinzip der vollständigen Abschottung. Wenn die Vernetzung irgendeinen Sinn haben soll, dann eben den, dass es keine vollständige Abschottung gibt. Dies läuft auf die große Kunst einer ’verabredeten Abschottung’ hinaus: es gibt eine ’bestimmte Datenkonstellation, die den Zugang öffnet’. Dies aber bedeutet, jeder kann herumprobieren, bis er diese Datenkonstellation gefunden hat. Während die einen KI-Programme einsetzen, um diese Datenschlüssel zu finden, versuchen die anderen mit KI-Programmen, mögliche Angreifer bei ihren Aktivitäten zu entdecken. Wie dieses Spiel auf lange Sicht ausgehen wird, ist offen. In der Natur wissen wir, dass nach 3.8 Milliarden Jahren biologischem Leben die komplexen Organismen bis heute beständig den Angriffen von Viren und Bakterien ausgeliefert sind, die sich um Dimensionen schneller verändern können, als das biologische Abwehrsystem(das Immunsystem) lernen kann. Die bisherige Moral aus dieser Geschichte ist die, dass diese Angriffe bei komplexen Systemen offensichtlich ko-existent sind, dazu gehören. Nur ein schwacher Trost ist es, dass der beständige Abwehrkampf dazu beiträgt, die Systeme graduell besser zu machen. Mit Blick auf diese fortschreitende Vernetzung ist es wenig beruhigend, sich vorzustellen, dass es in ca. 70- 90 Jahren (wie viele vermuten) (Anmerkung: Siehe dazu eine längere Argumentation im 1.Kap. von Bostrom (2014) [Bos14]) tatsächlich eine echte technische Superintelligenz geben wird, die allen Menschen gegenüber überlegen ist; eine solche technische Superintelligenz könnte im Handumdrehen alle Netze erobern und uns alle zu ihren Gefangenen machen. Nichts würde mehr in unserem Sinne funktionieren: die Super-KI würde alles kontrollieren und uns vorschreiben, was wir tun dürfen. Über das Internet der Dinge und unsere Smartphones wäre jeder 24h unter vollständiger Kontrolle. Jede kleinste Lebensregung wäre sichtbar und müsste genehmigt werden. Ob und was wir essen, ob wir noch als lebenswert angesehen werden …

C. Noch ist es nicht soweit …

Zum Glück ist dieses Szenario einer menschenfeindlichen Superintelligenz bislang nur Science-Fiction. Die bisherigen sogenannten KI-Programme sind nur in einem sehr eingeschränkten Sinne lernfähig. Bislang sind sie wie abgerichtete Hunde, die nur das suchen,was ihnen ihre Auftraggeber vorgeben, zu suchen. Sie haben noch keine wirkliche Autonomie im Lernen, sie können sich noch nicht selbständig weiter entwickeln(nur unter speziellen Laborbedingungen). Allerdings sammeln sie Tag und Nacht fleißig Daten von allem und jedem und erzeugen so ihre einfachen Bilder von der Welt: z.B. dass die Männer im Alter von 21 in der Region Rhein-Main mit Wahrscheinlichkeit X folgende Gewohnheiten haben …. Herr Müller aus der Irgendwo-Straße hat speziell jene Gewohnheiten …. seine Freunde sind … Es gibt eine hohe Wahrscheinlichkeit dass er Partei Y wählen wird … dass er in drei Monaten ein neues Auto vom Typ X kaufen wird ….am liebsten klickt er folgende Adressen im Internet an …

In den Händen von globalen Firmen, anonymen Nachrichtendiensten, autoritären Regierungen oder verbrecherischen Organisationen können allerdings schon diese Daten zu einer echten Bedrohung werden, und diese Szenarien sind real. Die Rolle der bösen Superintelligenz wird hier bis auf weiteres noch von Menschen gespielt; Menschen haben in der Vergangenheit leider zur Genüge bewiesen, dass sie das Handwerk des Bösen sehr gut beherrschen können…Es stellt sich die Frage, ob sich die bisherigen einfachen künstlichen Intelligenzen weiter entwickeln können? Lernen künstliche Intelligenzen anders als Menschen? Welche Rolle spielen hier Werte? Sind Werte nicht ein altmodischer Kram, den nur Menschen brauchen (oder selbst diese eigentlich nicht)? Schließlich, wo kommt hier Gott ins Spiel? Tangieren künstliche Intelligenzen den menschlichen Glauben an Gott überhaupt?

II. WAS IST ’KÜNSTLICHE INTELLIGENZ’

Für eine Erkundungsreise in das Land der Künstlichen Intelligenz ist die Lage nicht ganz einfach, da das Gebiet der KI sich mittlerweile sehr stürmisch entwickelt. Immer mehr Konzepte stehen nebeneinander im Raum ohne dass es bislang allgemein akzeptierte Theorie- und Ordnungskonzepte gibt. (Anmerkung: Für zwei sehr unterschiedliche historische Rückblicke in das Thema sei verwiesen auf Mainzer (1995) [Mai95] und Nilsson (2010) [Nil10]. Für eine sehr populäre, wenngleich methodisch problematische, Einführung in den Stand der Disziplin siehe Russel und Norvik (2010) [RN10]).

Wir besuchen hier für einen Einstieg einen der großen Gründungsväter ganz zu Beginn 1936 – 1950 Alan Matthew Turing, und dann für die Zeit 1956 – 1976 Alan Newell und Herbert A.Simon. (Anmerkung: Simon war auch ein Nobelpreisträger im Gebiet der Wirtschaftswissenschaften 1978.) Dann schauen wir noch kurz in allerneueste Forschungen zum Thema Computer und Werte.

A. Am Anfang war der Computer

Wenn wir von künstlicher Intelligenz sprechen setzen wir bislang immer voraus, dass es sich um Programme (Algorithmen) handelt, die auf solchen Maschinen laufen, die diese Programme verstehen. Solche Maschinen gibt es seit 1937 und ihre technische Entwicklung hing weitgehend davon ab, welche Bauteile ab wann zur Verfügung standen. Das Erstaunliche an der bisherigen Vielfalt solcher Maschinen, die wir Computer nennen, ist, dass sich alle diese bis heute bekannt gewordenen Computer als Beispiele (Instanzen) eines einzigen abstrakten Konzeptes auffassen lassen. Dieses Konzept ist der Begriff des universellen Computers, wie er von Alan Matthew Turing 1936/7 in einem Artikel beschrieben wurde (siehe: [Tur 7] 4 ). In diesem Artikel benutzt Turing das gedankliche Modell einer endlichen Maschine für jene endlichen Prozesse, die Logiker und Mathematiker intuitiv als ’berechenbar’ und ’entscheidbar’ ansehen. (Anmerkung: Zum Leben Turings und den vielfältigen wissenschaftlichen Interessen und Einflüssen gibt es die ausgezeichnete Biographie von Hodges (1983) [Hod83].) Das Vorbild für Turing, nach dem er sein Konzept des universellen Computers geformt hat, war das eines Büroangestellten, der auf einem Blatt Papier mit einem Bleistift Zahlen aufschreibt und mit diesen rechnet.

B. Computer und biologische Zelle

Was Turing zur Zeit seiner kreativen Entdeckung nicht wissen konnte, ist die Tatsache, dass sein Konzept des universellen Computers offensichtlich schon seit ca. 3.5 Milliarden Jahre als ein Mechanismus in jeder biologischen Zelle existierte. Wie uns die moderne Molekularbiologie über biologische Zellen zur Erfahrung bringt(siehe [AJL + 15]), funktioniert der Mechanismus der Übersetzung von Erbinformationen in der DNA in Proteine (den Bausteinen einer Zelle) mittels eines Ribosom-Molekülkomplexes strukturell analog einem universellen Computer. Man kann dies als einen Hinweis sehen auf die implizite Intelligenz einer biologischen Zelle. Ein moderner Computer arbeitet prinzipiell nicht anders.

C. Computer und Intelligenz

Die bei Turing von Anfang an gegebene Nähe des Computers zum Menschen war möglicherweise auch die Ursache dafür, dass sehr früh die Frage aufgeworfen wurde, ob, und wenn ja, wieweit, ein Computer, der nachdem Vorbild des Menschen konzipiert wurde, auch so intelligent werden könnte wie ein Mensch?

Der erste, der diese Frage in vollem Umfang aufwarf und im einzelnen diskutierte, war wieder Turing. Am bekanntesten ist sein Artikel über Computerintelligenz von 1950 [Tur50]. Er hatte aber schon 1948 in einem internen Forschungsbericht für das nationale physikalische Labor von Großbritannien einen Bericht geschrieben über die Möglichkeiten intelligenter Maschinen. (Anmerkung: Eine Deutsche Übersetzung findet sich hier: [M.87]. Das Englische Original ’Intelligent Machinery’ von 1948 findet sich online im Turing Archiv: http://www.alanturing.net/intelligent_machinery.) In diesem Bericht analysiert er Schritt für Schritt, wie eine Maschine dadurch zu Intelligenz gelangen kann, wenn man sie, analog wie bei einem Menschen, einem Erziehungsprozess unterwirft, der mit Belohnung und Strafe arbeitet. Auch fasste er schon hier in Betracht, dass sein Konzept einer universellen Maschine das menschliche Gehirn nachbaut. Turing selbst konnte diese Fragen nicht entscheiden, da er zu dieser Zeit noch keinen Computer zur Verfügung hatte, mit dem er seine Gedankenexperimente realistisch hätte durchführen können. Aber es war klar, dass mit der Existenz seines universellen Computerkonzeptes die Frage nach einer möglichen intelligenten Maschine unwiderruflich im Raum stand. Die Fragestellung von Turing nach der möglichen Intelligenz eines Computers fand im Laufe der Jahre immer stärkeren Widerhall. Zwei prominente Vertreter der KI-Forschung, Allen Newell und Herbert A.Simon, hielten anlässlich des Empfangs des ACM Turing-Preises1975 eine Rede, in der sie den Status der KI-Forschung sowie eigene Arbeiten zum Thema machten (siehe dazu den Artikel [NS76]).

D. Eine Wissenschaft von der KI

Für Newell und Simon ist die KI-Forschung eine empirische wissenschaftliche Disziplin, die den Menschen mit seinem Verhalten als natürlichen Maßstab für ein intelligentes Verhalten voraussetzt. Relativ zu den empirischen Beobachtungen werden dann schrittweise theoretische Modelle entwickelt, die beschreiben, mit welchem Algorithmus man eine Maschine (gemeint ist der Computer) programmieren müsse, damit diese ein dem Menschen vergleichbares – und darin als intelligent unterstelltes – Verhalten zeigen könne. Im Experiment ist dann zu überprüfen, ob und wieweit diese Annahmen zutreffen.

E. Intelligenz (ohne Lernen)

Aufgrund ihrer eigenen Forschungen hatten Newell und Simon den unterstellten vagen Begriff der ’Intelligenz’ schrittweise ’eingekreist’ und dann mit jenen Verhaltensweisen in Verbindung gebracht, durch die ein Mensch (bzw. ein Computer) bei der Abarbeitung einer Aufgabe schneller sein kann, als wenn er nur rein zufällig’ handeln würde. ’Intelligenz’ wurde also in Beziehung gesetzt zu einem unterstellten ’Wissen’ (und zu unterstellten ‚Fertigkeiten‘), über das ein Mensch (bzw. ein Computer) verfügen kann, um eine bestimmte Aufgabe ’gezielt’ zu lösen. Eine so verstandene ’Intelligenz’ kann sich aus sehr vielfältigen, möglicherweise sogar heterogenen, Elementen zusammen setzen.

Dies erklärt ihre mannigfaltigen Erscheinungsweisen bei unterschiedlichen Aufgaben. ’Intelligenz’ ist dabei klar zu unterscheiden, von einem ’Lernen’. Ist die Aufgabenstellung vor dem Einsatz einer Maschine hinreichend bekannt, dann kann ein Ingenieur all das spezifische Wissen, das eine Maschine für die Ausführung der Aufgabe benötigt, von vornherein in die Maschine ’einbauen’. In diesem Sinne ist jede Maschine durch das Knowhow von Ingenieuren in einem spezifischen Sinne ’intelligent’. Bis vor wenigen Jahrzehnten war dies die Standardmethode, wie Maschinen von Ingenieuren entworfen und gebaut wurden.

F. Lernen ermöglicht Intelligenz

Im Fall von biologischen Systemen ist ein solches Vorgehen kaum möglich. Biologische Systeme entstehen (durch Zellteilung), ohne dass bei der Entstehung bekannt ist, wie die Umwelt aussehen wird, ob sie sich verändert, welche Aufgaben das biologische Systemlösen muss. Zwar haben alle biologische Systeme auch genetisch vorbestimmte Verhaltensmuster, die gleich bei der Geburt zur Verfügung stehen, aber darüber hinaus haben alle biologische Systeme einen ariablen Anteil von Verhaltensweisen, die sie erst lernen müssen. Das Lernen ist hier jene Fähigkeit eines biologischen Systems, wodurch es seine internen Verhaltensstrukturen in Abhängigkeit von der ’Erfahrung’ und von ’spezifischen Bewertungen’ ’ändern’ kann. Dies bedeutet, dass biologische Systeme durch ihre Lernfähigkeit ihr Verhalten ’anpassen’ können. Sie können damit – indirekt – ein ’spezifisches Wissen’ erwerben, das ihnen dann eine spezifische ’Intelligenz’ verleiht, wodurch das biologischen System besser als durch Zufall reagieren kann. Diese Fähigkeit eines situationsgetriebenen Wissens besaßen Maschinen bis vor kurzem nicht. Erst durch die modernen Forschungen zu einer möglichen ’künstlichen Intelligenz (KI)’ machte man mehr und mehr Entdeckungen, wie man Maschinen dazu in die Lage versetzen könnte, auch nach Bedarf neues Verhalten erlernen zu können. Innerhalb dieses Denkrahmens wäre dann eine ’künstliche Intelligenz’ eine Maschine, hier ein Computer, der über Algorithmen verfügt, die ihn in die Lage versetzen, Aufgaben- und Situationsabhängig neues Verhalten zu erlernen, falls dies für eine bessere Aufgabenbearbeitung wünschenswert wäre.

Die noch sehr ursprüngliche Idee von Turing, dass ein Computer Lernprozesse analog dem der Menschen durchlaufen könnte, inklusive Belohnung und Bestrafung, wurde seitdem auf vielfältige Weise weiter entwickelt. Eine moderne Form dieser Idee hat unter dem Namen ’Reinforcement Learning’ sehr viele Bereiche der künstlichen Intelligenzforschung erobert (vgl. Sutton und Barto (1998) [SB98]).

G. KI und Werte

Für die Aufgabenstellung einer ’lernenden Intelligenz’ spielen ’Werte’ im Sinne von ’Verhaltenspräferenzen’ eine zentrale Rolle. Ein Gebiet in der KI-Forschung, in dem diese Thematik sehr intensiv behandelt wird, ist der Bereich der ’Entwicklungs-Robotik’ (Engl.:’developmental robotics’). In diesem Bereich wurde u.a. die Thematik untersucht (vgl. Kathryn Merrick(2017) [Mer17]), wie ein Roboter ’von sich aus’, ohne direkte Befehle, seine Umgebung und sich selbst ’erforschen’ und aufgrund dieses Lernens sein Verhalten ausrichten kann. Dabei zeigt sich, dass reine Aktivierungsmechanismen, die im Prinzip nur die Neugierde für ’Neues’ unterstützen, nicht ausreichend sind. Außerdem reicht es nicht aus, einen Roboter isoliert zu betrachten, sondern man muss Teams oder ganze Populationen von Robotern betrachten, da letztlich ein ’Wert’ im Sinne einer ’Präferenz’ (eine bevorzugte Verhaltenstendenz) nur etwas nützt, wenn sich alle Mitglieder einer Population daran orientieren wollen. Dies führt zur grundlegenden Frage, was denn eine Population von Robotern gemeinschaftlich als solch einen gemeinsamen ’Wert’ erkennen und akzeptieren soll. Wirklich befriedigende Antworten auf diese grundlegenden Fragen liegen noch nicht vor. Dies hat u.a. damit zu tun, dass die Robotersysteme, die hier untersucht werden, bislang noch zu unterschiedlich sind und dass es auch hier bislang – wie bei der KI-Forschung insgesamt – ein großes Theoriedefizit gibt in der Frage, innerhalb welches theoretischen Rahmens man diese unterschiedlichen Phänomene denn diskutieren soll.

Man kann aber den Ball dieser Forschung einmal aufgreifen und unabhängig von konkreten Realisierungsprozessen die Frage stellen, wie denn überhaupt ein ’Wert’ beschaffen sein müsste, damit eine ganze Population von Robotern sich ’von sich aus’ darauf einlassen würde. Letztlich müsste auch ein Roboter entweder eine ’eingebaute Tendenz’ haben, die ihn dazu drängt, ein bestimmtes Verhalten einem anderen vor zu ziehen, oder aber es müsste eine ’nicht eingebaute Tendenz’ geben, die im Rahmen seiner ’internen Verarbeitungsprozesse’ neue Verhalten identifizieren würde, die ihm im Sinne dieser ’Tendenz’ ’wichtiger’ erscheinen würde als alles andere. Es ist bislang nicht erkennbar, wo eine ’nicht eingebaute Tendenz’ für eine Verhaltensauswahl herkommen könnte. Ein industrieller Hersteller mag zwar solche Werte aufgrund seiner Interessenlage erkennen können, die er dann einem Roboter ’zu verstehen geben würde’, aber dann wäre die Quelle für solch eine ’Initiierung einer Verhaltenstendenz’ ein Mensch.

In der aktuellen Forschungssituation ist von daher als einzige Quelle für nicht angeborene Verhaltenstendenzen bislang nur der Mensch bekannt. Über welche Werte im Falle von sogenannten künstlichen Super-Intelligenzen diese verfügen würden ist noch unklar. Dass künstliche Super-Intelligenzen von sich aus Menschen grundsätzlich ’gut’ und ’erhaltenswert’ finden werden, ist in keiner Weise abzusehen. Die künstlichen Superintelligenzen müssten sich in Wertefragen – wenn überhaupt – eher am Menschen orientieren. Da die bisherige Geschichte der Menschheit zeigt, dass der Mensch selbst zu allen Zeiten eine starke Neigung hat, andere Menschen zu unterdrücken, zu quälen, und zu töten, würde dies für alle Menschen, die nicht über künstliche Superintelligenzen verfügen, tendenziell sehr gefährlich sein. Ihr ’Opferstatus’ wäre eine sehr große Versuchung für die jeweilige technologische Macht.

III. WER SIND WIR MENSCHEN?

Wenn Menschen sich in der KI wie in einem Spiegelbetrachten, dann kann dies für den betrachtenden Menschen viele Fragen aufwerfen. Zunächst erfinden die Menschen mit dem Computer einen Typ von intelligenter Maschine, die zunehmend den Eindruck erweckt, dass sich die Menschen in solchen Maschinen vervielfältigen (und möglicherweise noch übertreffen) können. Dann benutzen sie diese Computer dazu, die Strukturen des menschlichen Körpers immer tiefer zu erforschen, bis hin zu den Zellen und dort bis in die Tiefen der molekularen Strukturen, um z.B. unsere Gene zu erforschen, unser Erbmaterial, und zwar so weitgehend, dass wir dieses Erbmaterial gezielt verändern können. Die Menschen verstehen zwar noch nicht in vollem Umfang die möglichen Wirkungen der verschiedenen Änderungen, aber es ist möglich, real Änderungen vorzunehmen, um auszuprobieren, ’was dann passiert’? Mit Hilfe des Computers beginnt der Mensch, seinen eigenen Bauplan, sein eigenes genetisches Programm, umzubauen.

Dazu kommt, dass die Menschen seit dem19.Jahrhundert mit der modernen Biologiewissen können, dass die vielfältigen Formen des biologischen Lebens zu einem bestimmten Zeitpunkt immer das Ergebnis von langen vorausgehenden Entwicklungsprozessen sind. Das Wachsen und Sterben von Organismen gründet jeweils in einer befruchteten Zelle, für die durch das Erbmaterial festgelegt ist, wie sie sich weiter vermehrt und wie sich Millionen, Milliarden und gar Billionen von Zellen zu komplexen Formen zusammen finden. Und bei der Vervielfältigung von Zellen können Änderungen, Abweichungen vom ursprünglichen Plan auftreten, die über viele Tausende  und Millionen von Jahren zu deutlichen Änderungen im Bau und Verhalten eines Organismus führen können. Die Biologen sprechen von ’Evolution’. Eine Erkenntnis aus diesem Evolutionsprozess war (und ist), dass wir Menschen, so, wie wir heute da sind, auch solche evolutionär gewordene biologische Strukturen sind, die Vorläufer hatten, die mit uns heutigen Menschen immer weniger zu tun hatten, je weiter wir in der Zeit zurückgehen. Wer sind wir also?

Die Frage, ob Computer als intelligente Maschinen genau so gut wie Menschen werden können, oder gar noch besser, läuft auf die Frage hinaus, ob der Mensch Eigenschaften besitzt, die sich generell nicht durch einen Computer realisieren lassen.

Die moderne Psychologie und die modernen Neurowissenschaften haben bislang nichts zutage fördern können, was sich einem ingenieurmäßigen Nachbau entziehen könnte. Auch wenn es sich hierbei nicht um einen ’strengen Beweise’ handelt, so kann dieser Anschein einer generellen ’maschinelle Reproduzierbarkeit’ des Menschen in Gestalt von intelligenten Maschinen das bisherige Selbstverständnis von uns Menschen stark verunsichern.

IV. GLAUBEN AN GOTT

A. In allen Himmelsrichtungen

Aus der Geschichte der letzten Jahrtausende wissen wir, dass es zu allen Zeiten und in allen Kulturen Religionen gegeben hat. Die größten sind wohl (bis heute) der Hinduismus, der Buddhismus, das Judentum mit dem Christentum, und der Islam. So verschieden diese zu verschiedenen Zeiten und in verschiedenen Regionen äußerlich erscheinen mögen, sie verbindet alle das tiefe Fühlen und Glauben von Menschen an einen über-persönlichen Sinn, der Glaube an ein höheres Wesen, das zwar unterschiedliche Namen hat (’Gott’, ’Deus’, ’Theos’, ’Jahwe’, ’Allah’ …), aber – möglicherweise – vielleicht nur ein einziges ist.

B. Jüdisch-Christlich

So verschieden die christlichen Bekenntnisse der Gegenwart auch sein mögen, was die Anfänge angeht beziehen sich noch immer alle auf die Bibel, und hier, für die Anfänge der Geschichte auf das Alte Testament.(Anmerkung: Für eine deutsche Übersetzung siehe die Katholisch-Evangelische Einheitsübersetzung [BB81]).

Wie uns die modernen Bibelwissenschaften lehren, blickt der Text des Alten Testaments auf eine vielfältige Entstehungsgeschichte zurück. (Anmerkung: Für eine Einführung siehe Zenger et.al (1998) [ZO98]). Nicht nur, dass der Übergang von der mündlichen zur schriftlichen Überlieferung sich im Zeitraum von ca. -700 bis ca.+200 abgespielt hat, auch die redaktionelle Erzeugung verweist auf sehr viele unterschiedliche Traditionen, die nebeneinander existiert und die zu unterschiedlichen Varianten geführt haben. Auch die Kanonbildung dauerte dann nochmals viele hundert Jahre mit dem Ergebnis, dass es schwer ist, von dem einen Urtext zu sprechen. Für jene Menschen, die vorzugsweise Halt an etwas Konkretem, Festen suchen, mag dieses Bild der Überlieferung der Texte des alten Testaments beunruhigend wirken. Wird hier nicht vieles relativiert? Kann man denn da noch von einem ’Wort Gottes an die Menschen’ sprechen? Diese Furcht ist unbegründet, im Gegenteil.

C. Neues Weltbild

Wenn wir Menschen heute lernen (dürfen!), wie unsere individuelle, konkrete Existenz eingebettet ist in einen geradezu atemberaubenden Prozess der Entstehung der bekannten Lebensformen über viele Milliarden Jahre, wie unser eigener Körper ein unfassbares Gesamtkunstwerk von ca. 37 Billionen (10^12 !) Körperzellen in Kooperation mit ca. 100 Bio Bakterien im Körper und ca. 220 Mrd. Zellen auf der Haut  ist, die in jedem Moment auf vielfältige Weise miteinander reden, um uns die bekannten Funktionen des Körpers zur Verfügung zu stellen, dann deutet unsere reale Existenz aus sich heraus hin auf größere Zusammenhänge, in denen wir vorkommen, durch die wir sind, was wir sind. Und zugleich ist es die Erfahrung einer Dynamik, die das Ganze des biologischen Lebens auf der Erde in einem ebenfalls sich entwickelnden Universum umfasst und antreibt. Wenn wir verstehen wollen, wer wir sind, dann müssen wir diesen ganzen Prozess verstehen lernen.

Wenn wir uns dies alles vor Augen halten, dann können uns die Texte des alten Testaments sehr nahe kommen. Denn diese Texte manifestieren durch ihre Vielfalt und ihre Entstehungsgeschichte über viele Jahrhunderte genau auch diese Dynamik, die das Leben auszeichnet.

D. Schöpfungsberichte

Claus Westermann, ein evangelischer Theologe und Pfarrer, leider schon verstorben, hat uns einen Kommentar zum Buch Genesis hinterlassen und eine Interpretation der beiden biblischen Schöpfungsberichte, der jedem, der will, aufzeigen kann, wie nah diese alten Texte uns heute noch sein können, vielleicht viel näher als je zuvor. (Anmerkung: Neben seinen beiden wissenschaftlichen Kommentaren aus den Jahren 1972 und 1975 hat er schon 1971 ein kleines Büchlein geschrieben, in dem er seine Forschungsergebnisse in einer wunderbar lesbaren Form zusammengefasst hat (siehe: [Wes76]).

Der erste der beiden Schöpfungstexte in Gen 1,1-2,4a ist der jüngere der beiden; seine Entstehung wird auf die Zeit 6.-5.Jh vor Christus angesetzt, der zweite Schöpfungstext in Gen 2,4b – 24 wird mit seiner Entstehung im 10.-9.Jh vor Christus verortet. Der jüngere wird einer Überlieferungsschicht zugeordnet, die als ’Priesterschrift’ bezeichnet wird, die einen großen Bogen spannt von der Entstehung der Welt mit vielen Stationen bis hin zu einem neuen Bund zwischen Menschen und Gott. Dieser erste Schöpfungsbericht, bekannt durch sein 7-Tage-Schema, steht im Übergang von sehr, sehr vielen Traditionen mythischer Berichte über Schöpfung in den umliegenden Kulturen, Traditionen, die selbst viele Jahrhunderte an Entstehungszeit vorweisen können. Von daher wundert es nicht, wenn sich einzelne Worte, Motive, Bilder, die auch im 7-Tage-Schema auftauchen, Parallelen haben in anderen Schöpfungsgeschichten. Interessant ist das, was die biblische Schöpfungsgeschichte der Priesterschrift anders macht als die anderen bekannten Geschichten es tun.

E. Menschen als Ebenbild

Die zentrale Aussage im neueren Schöpfungsbericht ist nicht, wie im älteren Text, wie Gott den Menschen geschaffen hat, sondern die Aussage, dass er den Menschen nach seinem Bilde geschaffen hat, und dass er dem Menschen eine Verantwortung übertragen hat. In der schon zu dieser Zeit bekannten Vielgestaltigkeit der Welt, ihrer vielen Werdeprozesse, war die zentrale Einsicht und damit verbunden der Glaube, dass der Mensch als ganzer (nicht eine einzelne Gruppe, kein bestimmter Stamm, kein bestimmtes Volk!) über die konkrete, reale Existenz hinausweisend mit Gott verbunden ist als seinem Schöpfer, der auch ansonsten alles geschaffen hat: die Gestirne sind keine Götter, wie in vielen anderen älteren Mythen. Die Menschen sind nicht dazu da, niedere Arbeiten für Gott zu machen, wie in anderen Mythen. Die Menschen werden vielmehr gesehen als in einem besonderen Status im Gesamt der Existenz in der Geschichte, mit einer Verantwortung für das Ganze.

Und diese besondere Stellung des Menschen wird nicht festgemacht an besonderen körperlichen und geistigen Eigenschaften; schon zu dieser Zeit wussten die Autoren der Priesterschrift, wie vielfältig die Lebensformen, ja der konkrete Mensch, sein kann. Wenn wir heute durch die Wissenschaften lernen können, wie der Mensch sich im größeren Ganzen eines biologischen Werdens einsortieren lässt, wie der Mensch selbst durch seine Kultur, seine Technologie in der Lage und bereit ist, sich selbst in allen Bereichen– einschließlich seines biologischen Körpers – zu verändern, dann steht dies in keiner Weise im Gegensatz zu der globalen Sicht des biblischen Schöpfungsberichts. Im Gegenteil, man kann das Gefühl bekommen, das sich in unserer Gegenwart die Weite des biblischen Texte mit den neuen Weiten der Erkenntnisse über Mensch und Universum neu begegnen können. Was allerdings heute auffällig ist, wie viele Menschen sich schwer tun, in diesen neuen primär wissenschaftlichen Weltsichten den Glauben an einen Gott, einen Schöpfer, an eine Geschichtsübergreifende Beziehung zu einem Schöpfer aufrecht zu erhalten. Ist dies heute nicht mehr möglich?

F. Frömmigkeit – Spiritualität

An dieser Stelle sollte man sich vergegenwärtigen, dass zu allen Zeiten die Menschen in ihrer Religiosität nie nur ’gedacht’ haben, nie nur ’mit Bildern’ der Welt oder Gottes umgegangen sind. Zu allen Zeiten gab es – und gibt es noch heute – auch das, was man ’Frömmigkeit’ nennt, ’Spiritualität’, jenes sehr persönliche, individuelle sich einem Gott gegenüber ’innerlich Vorfinden‘, ’Ausrichten’, ’Fühlen’, ’Erleben’. Es ist nicht leicht, dafür die richtigen Worte zu finden, da es nun einmal ’innere’ Prozesse sind, die sich nicht wie Gegenstände vorweisen lassen können.   Sie betreffen das grundsätzliche Erleben eines Menschen, ein inneres Suchen, ein Erfahren, ein Erfülltsein (oder auch Leersein), das, was viele Menschen ermöglicht, ihr Leben in einer anderen, neuen Weise zu gestalten, sich zu ändern, anders mit Gefahren und Leiden umzugehen. In den Bildern des Alltags ’mehr’ sehen zu können als ohne dieses innere Erleben, Gestimmt sein.

In einer interessanten Untersuchung hat der britische Philosoph Walter Terence Stace die spirituellen Zeugnisse von vielen Jahrtausenden in unterschiedlichen Kulturen philosophisch untersucht (vgl. [Sta60]). Er kommt zu dem Ergebnis, dass sich trotz aller Verschiedenheiten im Äußeren, auch bei bestimmten Interpretationen, im Kern des Erlebens, des Wahrnehmens, sofern man dieses überhaupt von möglichen Interpretationen trennen lässt, erstaunliche Übereinstimmungen erkennen kann. Er folgert daraus, dass diese Fähigkeit von Menschen, einen übergreifenden Sinn direkt, existentiell erfahren zu können, möglicherweise auf eine sehr grundsätzliche Eigenschaft aller Menschen verweist, die wir einfach haben, weil wir Menschen sind. (Anmerkung: Er schließt auch nicht aus, dass alles Lebendige, von dem wir Menschen ja nur ein Teil sind, an dieser grundsätzlichen Fähigkeit einen Anteil haben könnte, wenn auch möglicherweise verschieden von der Art, wie wir Menschen erleben können.)

Die Tiefe und Weite der Sicht des jüngeren Schöpfungsberichts im Buch Genesis würde einem solchen grundlegenden Sachverhalt gut entsprechen: das Bild vom Menschen als Ebenbild Gottes schließt eine besondere Verbundenheit nicht aus; das ist das, was nach Westermann dem Menschen seine besondere Würde verleiht, diese Beziehung, nicht sein aktuelles konkretes So-sein, das sich ändern kann, ist die zentrale Botschaft.

G. Mensch, KI, Glaube an Gott

Damit beginnt sich der Kreis zu schließen. Wenn die Besonderheit des Menschen, seine zeitübergreifende Würde, in dieser grundlegenden Beziehung zu einem Schöpfergott gründet, die sich vielfältig im Gesamt des Universums und Lebens manifestiert, speziell auch in einer Form von individueller Spiritualität, dann gewinnt die Frage nach der Zukunft von Mensch und intelligenten Maschinen noch eine neue Nuance.

Bislang wird von den Vertretern einer Zukunft ohne Menschen nur noch mit intelligenten Maschinen einseitig abgehoben auf die größere Rechenkraft und die größeren Speicher, die alles erklären sollen. In diesem Beitrag wurde darauf hingewiesen, dass selbst die einfachsten Formen des Lernens ohne ’Werte’ im Sinne von ’Präferenzen’, von ’Bevorzugung von Handlungsalternativen’, ins Leere laufen. Sogenannte ’angeborene’ Präferenzen (oder eingebaute) können nur einen sehr begrenzten Nutzen vermitteln, da sich die Handlungsgegebenheiten und die gesamte Welt beständig weiter verändern. Auch die teilweise sehr komplexen Wertfindungen im sozialen-kulturellen Kontext ganzer Populationen, die von den künstlichen Intelligenzen dieser Welt noch nicht mal ansatzweise beherrscht werden, sind nur von begrenztem Wert, wie die bisherige Kulturgeschichte der Menschen eindrücklich belegt. [Mai95]

Vor diesem Hintergrund ist aktuell nicht zu sehen, wie intelligente Maschinen in der Zukunft alleine zu irgendwelchen brauchbaren Präferenzen kommen können. [SB98][Mer17][Nil10][NS76][RN10][Sta60][Tur37] Ungeklärt ist aktuell allerdings, ob und wieweit der Mensch – also jeder von uns – im Wechselspiel von philosophisch-empirischer Welterkenntnis und Spiritualität jene großen Richtungen ermitteln kann, die für die kommende komplexe Zukunft gefordert wird?

Sollte die Existenz eines Schöpfergottes über Welterkenntnis und Spiritualität wichtig sein für ein weiteres erfolgreiches Fortschreiten, dann hätten intelligente Maschinen möglicherweise ein grundsätzliches Problem. Es sei denn, auch sie könnten Gott erfahren? Einfacher wäre es, wenn Mensch und Maschine ihre aktuelle Koexistenz zu einer intensiveren Symbiose ausbauen würden. Dies würde viele sehr spannende Perspektiven bieten. Der Glaube an einen Schöpfergott ist auch heute, nach allem, was wir jetzt wissen können, keineswegs unsinnig;er erweist sich sogar – rein rational – als scheinbar dringend notwendig. Andererseits ist ein lebendiger Glaube kein Automatismus, sondern erfordert von jedem Menschen sein sehr persönliches Engagement in Verbundenheit mit dem ganzen Leben in einem dynamischen Universum. Gott erscheint hier nicht als das Hindernis, eher unsere Verweigerungen, das Ganze anzuschauen und zu akzeptieren.

QUELLEN

[*] G.Doeben-Henisch, Künstliche Intelligenz und der Glaube an Gott, In: Brennpunkt Gemeinde 70 (Aug./Sept. 2017), Studienbrief R21, 14 S., Hg. AMD Arbeitsgemeinschaft Missionarische Dienste im Verbund der Diakonie, Neukirchener Verlagsgesellschaft mbH, 47497 Neukirchen-Vluyn

[AJL + 15] B. Alberts, A. Johnson, J. Lewis, D. Morgan, M. Raff,
K. Roberts, and P. Walter. Molecular Biology of the Cell.
Garland Science, Taylor & Francis Group, LLC, Abington
(UK) – New York, 6 edition, 2015.
[BB81] Katholisches Bibelwerk and Deutsche Bibelgesellschaft. Die
Heilige Schrift. Einheitsübersetzung. Verlag Katholisches
Bibelwerk & Deutsche Bibelgesellschaft, Stuttgart, 1 edition, 1981.
[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies.
Oxford University Press, Oxford (UK), 1 edition, 2014.
[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien
– New York, 1 edition, 1983.
[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler
and Friedrich Kittler, editors, Alan M. Turing. Intelligence
Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mai95] Klaus Mainzer. Computer – Neue Flügel des Geistes? Die
Evolution computergestützter Technik, Wissenschaft, Kultur
und Philosophie. Walter de Gruyter, Berlin – New York, 1th edition, 1995.
[Mer17] Kathrin Merrick. Value systems for developmental cognitive
robotics: A survey. Cognitive Systems Research, 41:38–55, 2017.
[Nil10] Nils J. Nilsson, editor. The Quest for Artificial Intelligence. A
History of Idesas and Achievements. Cambridge University
Press, New York, 2010.
[NS76] Allen Newell and Herbert A. Simon. Computer science as
empirical inquiry: Symbols and search. Communications of
the ACM, 19(3):113–126, 1976.
[RN10] Stuart J. Russell and Peter Norvig. Artificial Intelligence: A
Modern Approach. Prentice Hall, Inc., Upper Saddle River, 2010.
[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement
Learning. An Introduction. The MIT Press, Ambridge (MA) –
London, 1 edition, 1998.
[Sta60]W.T. Stace. Mysticism and Philosophy. Jeremy P.Tarcher,
Inc., Los Angeles, 1 edition, 1960. (Eine Diskussion hier im Blog findet sich HIER).
[Tur37] Alan M. Turing. Corrections to: On computable numbers, with
an application to the entscheidungsproblem. Proceedings of
the London Mathematical Society, 43:544–546, 1937.
[Tur50] Alan Turing. Computing machinery and intelligence. Mind,
59:433–460, 1950.
[Tur 7] Alan M. Turing. On computable numbers, with an application
to the entscheidungsproblem. Proceedings of the London
Mathematical Society, 42(2):230–265, 1936-7.
[Wes76] Claus Westermann. Schöpfung. Kreuz-Verlag, Stuttgart –
Berlin, 2 edition, 1976.
[ZO98] Erich Zenger and Others. Einleitung in das Alte Testament.
W.Kohlhammer, Stuttgart, 3rd edition, 1998

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

EIN HOMO SAPIENS – VIELE BILDER. Welches ist wahr?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 28.Okt. 2017
info@cognitiveagent.org
URL: cognitiveagent.org
Autor: cagent
Email: cagent@cognitiveagent.org

Beitrag als PDF

INHALT

I Vielfalt trotz Einheit
II Wahrheit, die ich meine
III Wahrheitsmechanismen
III-A Gegenwart, Gestern, Morgen . . . . . .
III-B Eigener Lebensraum, ganz woanders . .
III-C Interpretierte Wahrnehmung . . . . . . .
III-D Erfahrung liefert Bilder . . . . . . . . . .
III-E Wie das ’Richtige’ Lernen? . . . . . . . .
III-E 1 Mengenbegrenzungen . . . . .
III-E 2 Muster erkennen . . . . . . . .
III-E 3 Spezialisierungen . . . . . . .
III-E 4 Wechselwirkungen aufdecken
III-E 5 Geeignete Wissensformen . .
III-E 6 Verloren im Fragment . . . . .
III-E 7 Fehlende Präferenzen
IV Menschenbilder
V Was Tun?

ÜBERSICHT

In der realen Welt gibt es eine Lebensform, die wir homo sapiens nennen. In der Rede über diesen homo sapiens – also in den Bildern, die wir benutzen –benutzen wir aber viele verschiedene Bilder. Desgleichen in den alltäglichen Lebensformen: es gibt nur einen homo sapiens, aber in den verschiedenen Kulturen dieser Erde gibt es viele geradezu konträre Formen, wie Menschen leben oder leben müssen. Wie ein homo sapiens genau funktioniert, verstehen wir immer noch nicht genau. Die Politik bevorzugt in der Regel plakative Schlagworte, und vermeidet wissenschaftliche Modelle. Warum?

Vielfalt trotz Einheit

Wenn in einem Brettspiel jemand sagt, „ich habe gewonnen“, und ein anderer daraufhin sagt „Nein, ich habe gewonnen“, dann weiß jeder, dass da etwas nicht stimmen kann. Brettspiele sind aufgrund ihrer Regeln eindeutig, wenn nicht, würden sie nicht funktionieren.

Wenn wir uns aber die Realität anschauen, die gemeinsam geteilte empirische Welt, dann ist es mittlerweile fast der Normalfall, dass es zu einzelnen Aspekten, Vorkommnissen, Vorgängen, von verschiedenen Personen oder Personengruppen, ganz unterschiedliche Beschreibungen/ Darstellungen/ Bilder gibt, ohne dass wir dies merkwürdig finden. Wenn Politiker in Talkshows sich äußern sollen, ist es eher die Regel, dass sie konträre Meinungen vertreten. Keiner findet dies merkwürdig. Unrecht haben immer die anderen, die eine andere Meinung haben. Der Frage, warum es zu unterschiedlichen Meinungen zu ein und demselben Thema kommen kann, wird fast nie gestellt. Lieber beschimpft man sich gegenseitig, anstatt die Frage zu stellen, warum es zu unterschiedlichen Meinungen kommen kann.

Wahrheit, die ich meine

Eine klassische Auffassung von Wahrheit geht davon aus, dass das mit ‚Wahrheit‘ Gemeinte in der Übereinstimmung von eigener Auffassung und einem davon zu unterscheidenden Sachverhalt ist. Klassisches Beispiel: Jemand sagt „Es regnet“ und in der Redesituation regnet es tatsächlich oder nicht. Im ersten Fall würde man dem Sprecher zustimmen und sagen, er spricht ‚wahr‘, im anderen Fall nicht.

Schwieriger wird es, wenn der Redner über Sachverhalte spricht, die jenseits der aktuellen Redesituation liegen: räumlich entfernt, oder zeitlich weit zurück in der Vergangenheit oder in einer noch nicht stattgefundenen Zukunft. Welche Mechanismen der Klärung des Wahrheitsgehaltes gibt es dann?

Oder der Redner glaubt Sachverhalte wahrzunehmen, die aber alle anderen nicht wahrnehmen. Wer hat dann Recht? Irrt der eine, hat er eine ‚psychische Störung‘, steht er unter ‚Drogeneinfluss‘, hat er schlicht ein ‚falsches Wissen‘, oder … ? Könnten nicht alle anderen irren und er alleine hätte Recht?

Oder es gibt Sachverhalte, auch gegenwärtige, deren Status von bestimmtem ‚Wissen‘ abhängig ist, wodurch erst die ‚Eigenschaften des Sachverhalts‘ sichtbar werden. Berühmte Beispiele sind die Bewegung der Himmelskörper, das Phänomen von Magnetismus und Elektrizität, die chemischen Reaktionen der verschiedenen chemischen Substanzen, die Entdeckung der Mikroorganismen, die Entdeckung der Vererbung durch Mitwirkung der DNA, die Entdeckung der Gehirnzellen und die Tatsache, dass sie nicht miteinander direkt verbunden sind, usw.

Schon diese kurze Betrachtung zeigt, dass wir in unserem Alltag eher mehr Situationen haben, die eine ‚direkte Wahrheitsentscheidung‘ nicht zulassen als solche, die es tun. ‚Indirekte‘ Wahrheitsentscheidungen verlangen grundsätzlich eine ‚Klärung der Umstände‘ und eine ‚Klärung der Regeln der Interpretation‘.

Wahrheitsmechanismen

Gegenwart, Gestern, Morgen

Halten wir an der Fallunterscheidung fest, dass es Aussagen über Vergangenes, Zukünftiges oder Gegenwärtiges gibt.

Eigener Lebensraum, ganz woanders

In allen drei Fällen kann man nochmals unterscheiden, ob der Sachverhalt (gegenwärtig oder vergangen oder zukünftig) mit den Teilnehmern der Situation verknüpft ist oder nicht. Ob es da regnet, wo man gerade ist, oder woanders, das macht einen großen Unterschied. Oder ob in meiner Firma in der Vergangenheit ein bestimmtes Ereignis stattgefunden haben soll oder nicht, kann ich eher einschätzen, als wenn es in der Vergangenheit irgendwo ganz anders stattgefunden haben soll. Entsprechend in der Zukunft: eine Aussage über einen zukünftigen Sachverhalt in meinem persönlichen Lebensraum fasse ich anders auf als wenn es ‚irgendwo ganz anders‘ stattfinden soll.

Interpretierte Wahrnehmung

Befinden wir uns in der Gegenwart, dann können wir diese und eigene Körperzustände ‚wahrnehmen‘. Wie wir mittlerweile durch vielfältige wissenschaftliche Untersuchungen lernen konnten, nehmen wir aber niemals die Welt (und uns selbst) ‚1-zu-1‘ wahr, sondern vielfältig selektiert, abstrahiert und ‚interpretiert‘ durch die Erfahrungen, die wir vorher schon gemacht haben. Da die visuellen, akustischen, taktilen usw. Wahrnehmungen immer unvollständig sind, muss innerhalb des Wahrnehmungsprozesses kontinuierlich ‚interpretiert‘ werden. Wir sind ‚erfahrungsbasiert‘, und diese Erfahrungen sind sehr stark ’sprachlich durchtränkt‘. Wir sehen nicht einfach nur Farben, Formen; wir riechen nicht einfach nur süßlich, beizend, ätzend, usw.; wir hören nicht einfach nur Geräusche, Klänge; diese werden sofort eingeordnet in vertraute Muster, verknüpft mit bekannten Worten. Ein Geräusch identifizieren wir als ‚knarrende Schranktür‘, ‚vorbeifahrendes Auto‘, das ‚Klackern von Schuhen auf Steinplatten‘, usw., weil wir einfach ‚trainiert‘ wurden, diese Geräusche mit solchen Worten und darüber mit bestimmten Situationen zu verknüpfen. Wie wir wissen, können solche spontanen, von unserem Gehirn aufgrund von vorliegenden Erfahrungen ‚automatisch erzeugte‘ Zuordnungen falsch sein, weil die Erfahrungen falsch sind.

Erfahrung liefert Bilder

Im Alltag liefert unsere Erfahrung also die ‚Bilder‘, mit denen wir unsere Welt anschauen.

Solange jemand noch nichts von einer bestimmten genetischen Erkrankung wusste, war für ihn die Welt in Ordnung. Als er/ sie erfuhr, dass es solch eine spezielle Krankheit gibt und dass er Symptome dafür aufweist, war die Welt plötzlich eine ganz andere.

Solange jemand nicht wusste, wie ein bestimmtes Pflanzenschutzmittel wirkt, hat er es leichthändig eingesetzt. Sobald bekannt wurde, dass es die Böden und Pflanzen nachhaltig vergiftet, ein ganzes Ökosystem zum Kippen bringen kann, sogar über die Nahrung in den menschlichen Körper gelangen kann und dort zu schweren Störungen führt, da war die Welt plötzlich eine andere.

Solange man noch nicht wusste, dass der Nachbar und Freund ein Spitzel für den Staat war, mit dem Ziel andere Meinungen auszuspähen und zu melden, solange war die Welt noch in Ordnung. Aber als man durch Zufall entdeckte, dass da etwas nicht stimmt, wollte man es zunächst nicht glauben, man wehrte sich dagegen, bis es dann irgendwann klar war…

Die Bilder, die wir haben, erklären uns die Welt für uns. Andere können ganz andere Bilder haben.

Wie das ‚Richtige‘ Lernen?

Wenn unsere Erfahrungen einen solchen massiven Einfluss auf unsere Weltsicht haben, stellt sich die Frage, was wir denn tun können, um im Rahmen unseres ‚Erlernens von Welt‘ die ‚richtige‘ Sicht zu bekommen?

Mengenbegrenzungen

Wie wir heute wissen können, ist unsere aktuelle Wahrnehmung von Welt zudem mengenmäßig sehr begrenzt. Wir können im Sekundenbereich nie mehr als ca. 5-7 Wahrnehmungsobjekte (Englisch ‚chunks‘) verarbeiten. Je nach Erfahrungsstand können dies einfache oder sehr komplexe Objekte sein.

Muster erkennen

Ein Schachgroßmeister sieht auf einem Schachbrett nicht einzelne Figuren, sondern er sieht die Figuren als Teil eines ‚Musters‘, das er in ’strategische Zusammenhänge‘ einordnen kann. So genügt ihm ein kurzer Blick und er hat eine Einschätzung des ganzen Spielstandes und weiß sofort, wo es günstig wäre, in dieser Stellung anzusetzen. Ein weniger erfahrene Spieler sieht dies Muster und diese Zusammenhänge nicht auf einen Blick. Daher muss er mühsam alle möglichen Kombinationen ‚durchdenken‘, ‚geistig durchspielen‘, um zu Einschätzungen zu kommen. Der Amateur benötigt dafür viel mehr ‚Bedenkzeit‘. In einem offiziellen Schachturnier würde de Amateur daher normalerweise allein schon durch seinen Verbrauch an Denkzeit verlieren, wenn er nicht schon vorher aufgrund der Stellung verliert.

Das, was hier am Schachspiel verdeutlicht wurde, gilt für alle Situationen: wir können immer nur sehr wenige Aspekte einer Situation tatsächlich wahrnehmen und verarbeiten. Wenn nun die Situation komplex ist, das heißt, ganz viele einzelne Elemente auf vielfältige Weise ineinander greifen, und dadurch bestimmte Zustände erzeugen, dann können wir diese Situation nicht wirklich verstehen, es sei denn, wir würden sehr viel Zeit aufwenden, um sie zu erforschen. Im Alltag haben wir diese Zeit normalerweise nicht.

Spezialisierungen

Andererseits leben wir täglich in einer Welt, die bis zum Rand angefüllt ist mit komplexen Sachverhalten: die Infrastruktur einer Stadt mit Energieversorgung, Wasserversorgung, Abfallwirtschaft, Verkehr, Schulen, …; die Wohnungssituation; die wirtschaftliche Entwicklung einer Region; das Funktionieren großer Konzerne; die jeweiligen Ökosysteme, in denen wir uns bewegen; die demographische Entwicklung und ihre Konsequenzen; usw.

Teilweise helfen wir uns durch Spezialisierungen: es gibt Verkehrsfachleute, Demographen, Betriebswirte, Abfallexperten, Managementberater, Biologen,… doch diese sind einzelne; selten arbeiten sie — wenn überhaupt — alle zusammen, um ein Problem in seinen Wechselwirkungen zu verstehen, Zusammenhänge sichtbar zu machen.

Wechselwirkungen aufdecken

Die eine Frage ist also, ob wir überhaupt genügend brauchbare Daten von den verschiedenen Prozessen unseres Alltags haben bzw. bekommen; die andere Frage ist, wie wir diese Daten so ‚aufbereiten‘, dass die ‚Wechselwirkungen‘ sichtbar werden, d.h. warum der eine Faktor den anderen Faktor beeinflusst und in welchem Ausmaß.

Geeignete Wissensformen

Die Wissenschaftsphilosophie hat erarbeitet, wie solche erklärenden Datenstrukturen aussehen müssten, damit sie Erklärungen liefern könnten. Die verschiedenen computerbasierten Simulationstechniken lassen erkennen, wie man solche komplexen Datenstrukturen so aufbereiten könnte, dass jeder damit arbeiten kann. Im Alltag findet man solche Instrumente aber nicht. Tägliche Entscheidungen müssen ohne solche Hilfen getroffen werden.

Wenn man die Lernformen in den Schulen und Hochschulen anschaut, dann gibt es nahezu nichts, was ein komplexes ‚Lernen von der Welt‘ unterstützen könnte.

Verloren im Fragment

Als Ergebnis dieser schwierigen Situation muss jeder Mensch mit mehr oder weniger kleinen bzw. großen Fragmenten eines großen Ganzen leben, die es nicht zulassen, das große Ganze zu erkennen. Notgedrungen versucht jeder auf seine Weise, ad hoc, unverstandene Reste mit Hilfskonstruktionen ‚verständlich‘ zu machen. Und ja, wenn jetzt ein anderer Mensch mit anderen Fragmenten auftritt, was tut man dann? Freut man sich, aus der Verschiedenheit zu lernen (eine echte Chance) oder fühlt man sich verunsichert, fühlt man sich angegriffen, sieht im anderen einen ‚Gegner‘, einen ‚Feind‘, der die eigene Meinung bedroht?

Wenn Menschen, und dies dürften die meisten sein, im Berufsleben eingespannt sind, dazu Familie, soziale Verpflichtungen, dann ist es sehr häufig so, dass dieses Leben so anfordernd ist, dass Zeit und Muße sich mit der komplexen Welt zu beschäftigen, mit anderen Anschauungen, kaum vorhanden ist. Ganz ’natürlich‘ wird man vieles abblocken, wird man einen ‚Tunnelblick‘ ‚kultivieren‘, wird ‚Seinesgleichen‘ suchen, sich einrichten, sich abschotten, und wenn es zum Schwur kommt, wird man genau nur das wiederholen können, was man bislang kennen gelernt hat. Wer und was kann hier helfen?

Fehlende Präferenzen

Bei der ‚Aneignung von Welt‘, die unter starken quantitativen Begrenzungen stattfinden muss, und die aufgrund von bisherigen Erfahrungen eine starke Beeinflussung aufweist, spielt noch ein weiterer Faktor hinein: Bewertungen, Präferenzen.

Das eine ist, Objekte, Eigenschaften, Beziehungen, Abfolgen zu identifizieren. Schwer genug. Ein einzelner Handelnder braucht aber auch Präferenzen der Art, dass er im Fall von Alternativen bewerten kann, ob nun A oder B für ihn besser sind. Soll er A oder B tun?

Wenn man weiß, dass viele Leistungen ein mehrjähriges gezieltes Training voraus setzen, durch das ein entsprechendes Wissen, eine entsprechende Handlungsfähigkeit schrittweise erarbeitet worden ist, das dann nach vielen Jahren so verfügbar ist, dann setzt dies voraus, dass es solche ’situationsübergreifende Ziele‘ gibt, die das einzelne Verhalten auf dieses Ziel in ‚orientieren‘.

Wenn solche Ziele aber schwer zu erkennen sind, wenn sie schlichtweg fehlen, wie kann dann ein einzelner, eine Gruppe, eine Firma ihre Ressourcen gezielt auf ein Ziel hin optimieren?

Präferenzen hängen stark von verfügbarem Wissen ab, aber sie sind nicht identisch mit Wissen! Aus der Tatsache, dass ich weiß, wie man einen Computer baut, folgt nicht, dass ich weiß, wofür man ihn einsetzen sollte. Aus der Tatsache, dass man Schulen mit Computern ausstatten will, folgt nicht, dass die Schulen, die Lehrer, die Schüler wissen, wofür sie die Computer einsetzen wollen/ sollen/ können.

Es scheint bis heute eher unklar, wo Präferenzen herkommen sollen.

Im Alltag gibt es viele sogenannte ‚praktische Zwänge‘ (Ernährung, Wohnen, Geld verdienen, Gesundheit, Verkehr, …), die zum Handeln zwingen. Dies sind aber weitgehend unhinterfragte Automatismen, die selbst in einen größeren Zusammenhang einzuordnen wären. Übergreifende Ziele, welche?

Menschenbilder

Schaut man sich die verfügbaren Menschenbilder im Bereich der Wissenschaften an, so kann man die wichtigsten Typen wie folgt auflisten:

  • Die biologische Evolution, unterscheidbar nach homo sapiens und Nicht-homo sapiens.
  • Im Bereich des homo sapiens sein Verhalten (Ethologie, Psychologie, Soziologie, Politik, Wirtschaft…)
  • Im Kontext des Verhaltens des homo sapiens gibt es die unterstellten inneren Mechanismen, die dafür verantwortlich sind, wie der homo sapiens auf seine wahrnehmbare Umgebung reagiert, zusammengefasst im Begriff des Verhaltens bzw. der Verhaltensfunktion. Das ‚Sichtbare (Verhalten)‘ erscheint damit als Wirkung des ‚Unsichtbaren (Inneren)‘. Für diese inneren Zustände gibt es keine wirkliche wissenschaftliche Disziplin, da Bewusstseinszustände als solche kein Gegenstand einer empirischen Wissenschaft sein können. Traditionell ist hier die Philosophie zuständig, die eben nicht als empirische Disziplin gilt. Die Neurowissenschaften behandeln die physikalisch-chemische Maschinerie des Gehirns, nicht aber seine subjektiven Erlebnisse im Bewusstseinsraum.
  • Im Bereich des Verhaltens hat der Mensch Technologien hervorgebracht, die ihm helfen können, praktische Probleme des Alltags (dazu gehören auch Konflikte bis hin zu Großkonflikten (Krieg)) zu lösen. Das Ineinander von Mensch und Maschine lässt ständig neue Situationen entstehen, in denen sich der Mensch über ein verändertes Verhalten selbst neu erfahren kann (Ersetzung menschlicher Muskelkraft, Autos, Eisenbahn, Flugzeug, Raumschiff..).
  • Im Rahmen der Technologie nehmen die Digitalen Technologien eine Sonderstellung ein. Sie erlauben es zunehmend, die inneren Mechanismen des Menschen zu imitieren und in immer mehr Bereichen zu übertreffen. Dies stellt eine extrem starke Infragestellung des Menschen dar: ist er auch nur eine Maschine, dazu eine schlechte?
  • Neben dem Biologischen gibt es das Physikalische als allgemeinen Rahmen für alles Biologische, mit unfassbar weiten Räumen und Energien, die sich als Universum präsentieren.
  • Innerhalb des Biologischen sind die inneren Mechanismen des homo sapiens wissenschaftlich noch unaufgeklärt. Dies gibt viel Spielraum für Spekulationen, Esoterik und dem Phänomen des Religiösen. Es ist schwer zu entscheiden,welch ‚harten Kern‘ all diese Interpretationen haben.

Macht man sich diese Vielfalt klar, ihren weitgehenden Fragmentcharakter aufgrund fehlender Wissensintegration, dann wundert man sich nicht, dass Ideologien, Populismen, Fanatismen und Dogmatismen reichlich Nährboden finden können. Die öffentlichen Wissenskulturen sind nicht ausreichend genug kultiviert, um solchen Verzerrungen den Boden zu entziehen. Die Bedeutung einer Wissenskultur wird in fast allen Gesellschaften stark unterschätzt und die jeweiligen Politiker erweisen sich für diese Fragen auch nicht besonders hilfreich.

Was Tun?

Es ist eines, einen Sachverhalt zu diagnostizieren. Es ist eine ganz andere Frage, ob man aus solch einer Diagnose irgendeinen Handlungsvorschlag generieren kann, der eine deutliche Verbesserung mit sich bringen würde.

Angesichts der zentralen Bedeutung des Wissens für das Verhalten des Menschen eingebettet in Präferenz/ Bewertungsstrukturen, die in einem Lernprozess verfügbar sein müssen, bei gleichzeitiger Berücksichtigung der quantitativen Beschränkungen des biologischen Systems bräuchte es neue Lernräume, die solch ein verbessertes Lernen unterstützen. Ganz wichtig wäre es dabei, das Wissen nicht nur ‚jenseits des Individuums‘ zu kumulieren (die Cloud für alle und alles), sondern den einzelnen als einzelnen zu stärken, auch als soziales Wesen. Dazu braucht es eine grundlegende Re-Analyse dessen, wie der Mensch mittels neuer digitaler und Cyber-Technologien sowie Humantechnologie seinen Möglichkeitsraum vergrößern kann.

Dies wiederum setzt voraus, dass es eine Vision von Gesellschaft der Zukunft gibt, in der der homo sapiens überhaupt noch eine Rolle spielt. Dies wird gerade von elitären Machtgruppen immer mehr in Frage gestellt.

Wo gibt es ernsthafte Visionen für humane Gesellschaften für Morgen?

Diese Aufgabenstellung ist nichts für einen allein; hier sind alle, jeder auf seine Weise, gefragt.

Autor cagent arbeitet an konkreten Lösungen einmal über das weltweite Theoriebuch für Ingenieurezum anderen an dem komplementären Projekt eines Softwarelabors für die Entwicklung solcher Lokaler Lernwelten. Ja, man kann sogar sagen, dass das Kunstprojekt Philosophy-in-Concert hier auch hingehört. Aber, wie auch immer, ein einzelner kann die Aufgabe nicht lösen. Es braucht ein ‚Gesamtkunstwerk‘, in dem sich viele miteinander vernetzen und ergänzen.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

WAHRHEIT CONTRA WAHRHEIT. Notiz

PDF

Worum es geht

Im Zeitalter von Fake News (manche sprechen schon vom postfaktischen Zeitalter ) scheint der Begriff der Wahrheit abhanden gekommen zu sein. Dies trifft aber nicht zu. Die folgenden Zeilen kann man als Fortsetzung des vorausgehenden Beitrags lesen.

I. ARBEITSDEFINITION VON WAHRHEIT

1) In dem vorausgehenden Beitrag wurde angenommen, dass Wahrheit zunächst einmal die Gesamtheit des Wissens, der Erfahrungen und der Emotionen ist, die einer einzelnen Person zum aktuellen Zeitpunkt zur Verfügung steht. Was immer geschrieben, gedacht, gesagt usw. wird, jeder einzelne versteht und handelt auf
der Basis dessen, was er zu diesem Zeitpunkt in sich angesammelt hat.

2) Eine zentrale Einsicht ist dabei, dass unser Gehirn die aktuellen sensorischen Daten – externe wie interne– sofort, und automatisch, mit dem abgleicht, was bisher zu diesem Zeitpunkt im Gedächtnis verfügbar ist. Dadurch erleben wir alles, was uns begegnet, im Lichte des bislang Bekannten. Unsere Wahrnehmung ist eine unausweichlich interpretierte Wahrnehmung.

3) Ein Beispiel: Wenn jemand gefragt wird, ’ist dies dein Kugelschreiber?’, und dieser jemand antwortet mit ’Ja’, dann nimmt er einen Gegenstand wahr (als Ereignis seines Bewusstseins) und dieser jemand stellt zugleich fest, dass sein Gedächtnis in ihm eine Konzept aktiviert hat, bezogen auf das er diesen Gegenstand als seinen Kugelschreiber interpretieren kann. Für diesen jemand ist Wahrheit dann die Übereinstimmung zwischen (i) einer Wahrnehmung als einem Ereignis ’Kugelschreiber’ in seinem Bewusstsein, (ii) einem zugleich aktivierten Konstrukt aus dem Gedächtnis  ’mein Kugelschreiber’, sowie (iii) der Fähigkeit, erkennen zu können, dass das Wahrnehmungsereignis ’Kugelschreiber’ eine mögliche Instanz des Erinnerungsereignisses ’mein Kugelschreiber’ ist. Das Erinnerungsereignis ’mein Kugelschreiber’ repräsentiert (iv) zudem den Bedeutungsanteil des sprachlichen Ausdrucks ’dein Kugelschreiber’. Letzteres setzt voraus, dass der Frager und der Antwortende (v) beide die gleiche Sprache  gelernt haben und der Ausdruck ’dein Kugelschreiber’ aus Sicht des Fragenden und ’mein Kugelschreiber’ aus Sicht des Antwortenden von beiden (vi) in gleicher Weise interpretiert wird.

4) Anzumerken ist hier, dass jene Ereignisse, die ihm Bewusstsein als Wahrnehmungen aufschlagen können, unterschiedlich leicht zwischen zwei Teilnehmern des Gesprächs identifiziert werden können. Einmal können Aussagen über die empirische Welt sehr viele komplizierte Zusammenhänge implizieren, die nicht sofort erkennbar sind (wie funktioniert ein Fernseher, ein Computer, ein Smartphone…), zum anderen kann es
sein, dass die beiden Gesprächsteilnehmer die benutzte Sprache sehr unterschiedlich gelernt haben können (Fachausdrücke, spezielle Redewendungen, Art der Bedeutungszuschreibung, usw). Obwohl der Sachverhalt vielleicht im Prinzip erklärbar wäre, kann es sein, dass beide Gesprächsteilnehmer im Moment des Gesprächs
damit überfordert sind.

5) Ferner kann man sich durch dieses Beispiel nochmals deutlich machen, dass die Bezeichnung der Gesamtheit des Wissens, der Erfahrung und der Emotionen eines Menschen zu einem bestimmten Zeitpunkt als der subjektiven Wahrheit dieses Menschen ihren Sinn darin besitzt, dass dieser Mensch in dem Moment, wo er gefragt wird, ob es sich SO verhält, nur dann ’Ja’ sagen wird, wenn der gefragte Mensch in seiner subjektiven Wahrheit Elemente findet, die diesem So-sein entsprechen. Das ’So-sein’ aus der Frage muss ein Bestandteil der subjektiven Wahrheit sein und nur dann kann ein Mensch auf eine Anfrage hin sagen, ja, das wahrgenommene So-sein findet in der subjektiven Wahrheit eine Entsprechung. Die Fähigkeit zur Wahrheit erscheint somit primär in der subjektiven Wahrheit eines Menschen begründet zu sein.

II. WAHRHEIT UND LEBENSFORM

1) Ergänzend zu diesem geschilderten grundsätzlichem Zusammenhang wissen wir, dass die subjektive Wahrheit nicht unabhängig ist von dem Lebensprozess des jeweiligen Menschen. Alles, was ein Mensch erlebt, was auf ihn einwirkt, kann in diesem Menschen als Ereignis erlebbar werden, kann ihn beeinflussen, kann ihn
verändern. Dazu gehört natürlich auch das eigene Tun. Wenn jemand durch den Wald läuft und merkt, dass er laufen kann, wie sich das Laufen anfühlt, wie sich dies langfristig auf seinen Körperzustand auswirkt, dann beeinflusst dies auch das individuelle Erkennen von Welt und von sich selbst, als jemand, der laufen und
Fühlen kann. Wenn stattdessen Kinder in Kobaldminen arbeiten müssen statt zu lernen,  sich vielfältig neu entdecken zu können, dann wird diesen Kinder mit der Vorenthaltung einer Lebenspraxis zugleich ihr Inneres zerstört; es kann nur ein verzerrter Aufbau von Persönlichkeit stattfinden. Wir schwärmen derweil von den angeblich umweltfreundlichen Elektroautos, die wir fahren sollen. Oder: wenn Kinder im Dauerhagel von Granaten und Bomben aufwachsen müssen, um sich herum Verwundete und Tote erleben müssen, dann werden sie sich selbst entfremdet, weil verschiedene Machthaber ihre Macht in Stellvertreterkriegen meinen, ausagieren zu müssen.

2) Aufgrund der so unendlich verschiedenen Lebensprozesse auf dieser Erde können sich in den Menschen, die von ihrer Natur aus weitgehend strukturgleich sind,  ganz unterschiedliche subjektive Wahrheiten ansammeln. Derselbe Mensch sieht dann die Welt anders, handelt anders, fühlt anders. Es ist dann nahezu unausweichlich, dass sich bei der Begegnung von zwei Menschen zwei verschiedene Wahrheiten begegnen. Je nachdem, wie ähnlich oder unähnlich die Lebensprozesse dieser Menschen sind, sind auch die subjektiven Wahrheiten eher ähnlich oder unähnlich.

3) Wie man beobachten kann, tendieren Menschen dazu, sich vorzugsweise mit solchen Menschen zu treffen, mit ihnen zu reden, mit ihnen zusammen etwas tun, die mit ihnen bezüglich ihrer subjektiven Wahrheiten möglichst ähnlich sind. Manche meinen, solche selbstbezügliche Gruppen (’Echokammer’, ’Filterblase’) auch
im Internet, in den sozialen Netzwerken entdecken zu können. Obwohl das Internet im Prinzip die ganze Welt zugänglich macht [Anmerkung: Allerdings nicht in Ländern, in denen der Zugang zum Internet kontrolliert wird, wie z.B. massiv in China.], treffen sich Menschen vorzugsweise mit denen, die sie kennen, und mit denen sie eine ähnliche Meinung teilen. Man muss aber dazu gar nicht ins Internet schauen. Auch im Alltag kann man beobachten, dass jeder einzelne Mitglied unterschiedlicher sozialer Gruppen ist, in denen er sich wohl fühlt, weil man dort zu bestimmten Themen eine gleiche Anschauung vorfindet. An meiner Hochschule, an der Studierende aus mehr als 100 Ländern vertreten sind, kann man beobachten, dass die Studierenden
vorzugsweise unter sich bleiben statt die Vielfalt zu nutzen. Und die vielfältigen Beziehungskonflikte, die sich zwischen Nachbarn, Freunden, Lebenspartnern, Mitarbeitern usw. finden, sind ein eindrucksvolles Beispiel dafür, wie real  unterschiedlich subjektive Wahrheiten im Alltag sind. [Anmerkung: Allerdings ist diese Aufsplitterung in viele kleine Gruppen von ‚Gleichgesinnten‘ nicht notwendigerweise nur negativ; die Kultivierung von Vielfalt braucht eine natürliche Umgebung, in der Vielfalt möglich ist und geschätzt wird.]

4) Obwohl also der Mechanismus der subjektiven Wahrheitsbildung grob betrachtet einfach erscheint, hat man den Eindruck, dass wir Menschen uns dieses Sachverhaltes im Alltag nicht  wirklich bewusst sind. Wie schnell fühlt sich jemand beleidigt, verletzt, oder gar angegriffen, nur weil jemand sich anders verhält, als man es im Lichte seiner subjektiven Wahrheit erwartet. Wie schnell neigen wir dazu, uns von anderen abzugrenzen, sie abzustempeln als krank, verrückt, oder böse zu erklären, nur weil sie anders sind als wir selbst.

III. GEDANKE UND REALE WELT

1) Bis hierher konnte man den Eindruck gewinnen, als ob die subjektive Wahrheit ein rein gedankliches, theoretisches Etwas ist, das sich allerdings im Handeln bemerkbar machen kann. Doch schon durch die Erwähnung des Lebensprozesses, innerhalb dessen sich die subjektive Wahrheit bildet, konnte man ahnen, dass die konkreten Umstände ein wichtiges Moment an der subjektiven Wahrheit spielen. Dies bedeutet z.B., dass wir die Welt nicht nur in einer bestimmten Weise sehen, sondern wir verhalten uns ganz konkret in dieser Welt aufgrund unserer subjektiven Wahrheit (= Weltsicht), wir leben unseren Alltag mit ganz konkreten Objekten, Besitztümern und Gewohnheiten. Eine andere subjektive Wahrheit (bzw. Weltsicht) ist daher in der
Regel nicht nur ein bloßer abstrakter Gedanke, sondern kann zugleich reale, konkrete Veränderungen des eigenen Alltags implizieren. Da aber schrecken wir alle (verständlicherweise?) sofort zurück, blitzartig, vielleicht sogar unbewusst. Über die Wahrheit reden mag grundsätzlich chic sein, aber wenn die zur Sprache kommenden
Wahrheit anders ist als die eigene Wahrheit, dann zucken wir zurück. Dann wird es unheimlich, ungemütlich; dann können allerlei Ängste aufsteigen: was ist das für eine Welt, die anders wäre als die Welt, die wir kennen? Der verinnerlichten Welt korrespondiert immer auch eine reale Alltagswelt. [Anmerkung: In diesen Kontext passt vielleicht das paradoxe Beispiel, das Jesus von Nazareth in den Mund gelegt wird mit dem Bild, dass eher ein Kamel durch ein Nadelöhr gehen würde, als dass ein Reicher in den Himmel gelangen könnte. Eine Deutung wäre, dass jemand der als Reicher
(unterstellt: auf Kosten anderer) in einer Wirklichkeitsblase lebt, die angenehm ist, und er als Reicher wenig Motive hat, dies zu ändern. Allerdings, was man gerne
übersieht, ein solches Verhaftetsein mit der aktuellen Situation, die als angenehm gilt, gilt in vielen Abstufungen für jeden Menschen. In den Apartheitsgefängnissen von Südafrika (heute als Museum zu besichtigen) gab es z.B. unter den Gefangenen eine klare Hierarchie: die Bosse, die Helfer der Bosse, und der Rest. Kein Boss wäre auf die Idee gekommen, seine relativen Vorteile zu Gunsten von allen aufzugeben.]

2) In der Struktur der gesellschaftliche Wirklichkeit kann man den Mechanismus der parzellierten Wahrheiten wiederfinden. Eine Gesellschaft ist mit unzähligen Rollen durchsetzt, mit Ämtern, Amtsbezeichnungen, Institutionen usw.. Dazu kommen in vielen Ländern Abgrenzungen von unterschiedlichen ethnischen Gruppen. Weiter gibt es Nationalstaaten, die ihre eigenen Wahrheiten pflegen. Die Tendenz, das Andere, die Anderen negativ zu belegen, um seinen eigenen Status dadurch indirekt zu sichern, findet sich zwischenstaatlich auch wieder. [Anmerkung: Gut zu erkennen in dem Erstarken von nationalistisch-populistischen Doktrinen in leider immer mehr Ländern der Erde.] Eine unkritische Ausübung gewachsener partieller Wahrheiten kann Unterschiede dann nur zementieren oder gar vergrößern, anstatt sie zu überbrücken und zu allgemeineren Wahrheitsbegriffen zu kommen.

IV. EINE KULTUR DER WAHRHEIT?

1) Wenn man sieht wie unglaublich stark die Tendenz unter uns Menschen ist, aktuelle, partielle Wahrheiten (die aus Sicht des einzelnen nicht partiell, sondern universell sind) mit einer bestimmten Alltagspraxis zu verknüpfen und diese fest zu schreiben, dann könnte man auf die Idee kommen, zu fragen, was wir als Menschen tun können, um dieser starken Tendenz ein natürliches Gegengewicht gegenüber zu stellen, das
dem Trieb zu partiellen Wahrheit entgegenwirken könnte.

2) Innerhalb der Rechtsgeschichte kann man beobachten, wie im Laufe von Jahrtausenden das Recht des Angeklagten häppchenweise soweit gestärkt wurde, dass es in modernen Staaten mit einem funktionieren Rechtssystem üblich geworden ist, jemanden erst dann tatsächlich zu verurteilen, nachdem in nachvollziehbaren, transparenten Verfahren die Schuld bzw. Unschuld objektiv festgestellt worden ist. Dennoch kann man sehen, dass gerade in der Gegenwart in vielen Staaten wieder eine umgekehrte Entwicklung um sich greift: der methodische Respekt vor der Gefahr partieller Wahrheiten wird einfachüber Bord geworfen und Menschen werden allein aufgrund ihrer Andersheit und eines blinden Verdachts vorverurteilt, gefoltert, und
aus ihren gesellschaftlichen Stellungen verjagt.

3) Innerhalb der Welt der Ideen gab es eine ähnliche Entwicklung wie im Rechtssystem: mit dem Aufkommen der empirischen experimentellen Wissenschaften in Kooperation mit Mathematischen Strukturen konnte das Reden über Sachverhalte, über mögliche Entstehungsprozesse und über mögliche Entwicklungen auf ganz neue Weise transparent gemacht werden, nachvollziehbar, überprüfbar, wiederholbar, unabhängig von dem Fühlen und Meinen eines einzelnen [Anmerkung: Allerdings nicht ganz!].  Diese Art von Wissenschaft kann großartige Erfolge aufweisen, ohne die das heutige
Leben gar nicht vorstellbar wäre. Doch auch hier können wir heute beobachten, wie selbst in den Ländern mit einem entwickelten Wissenschaftssystem die wissenschaftlichen Prinzipien zunehmen kurzfristigen politischen
und ökonomischen Interessen geopfert werden, die jeweils auf den partiellen Wahrheiten der Akteure beruhen.

4) Es drängt sich dann die Frage auf, ob der Zustand der vielen (partiellen) Wahrheiten generell vermeidbar wäre bzw. wie man ihn konstruktiv nutzen könnte, um auf der Basis der partiellen Wahrheiten zu einer umfassenderen weniger partiellen Wahrheit zu kommen.

5) Eine beliebte Lösungsstrategie ist ein autoritär-diktatorisches Gesellschaftssystem, das überhaupt nur noch eine partielle Wahrheit zulässt. Dies kennen wir aus der Geschichte und leider auch aus der Gegenwart: Gleichschaltung von Presse, Medien; Zensur; nur noch eine Meinung zählt.

6) Die Alternative ist die berühmte offene Gesellschaft, in der eine Vielfalt von partiellen Wahrheiten möglich ist, verbunden mit dem Vertrauen, dass die Vielfalt zu entsprechend vielen neuen erweiterten partiellen Wahrheiten führen kann (nicht muss!). Hier gibt es – im Idealfall – eine Fülle unterschiedlicher Medien und keine Zensur. Entsprechend wären auch alle Lern- und Erziehungsprozesse nicht an einem Drill, einer
autoritären Abrichtung der Kinder und Jugendlichen orientiert, sondern an offenen, kreativen Lernprozessen, mit viel Austausch, mit vielen Experimenten.

7) Allerdings kann man beobachten kann, dass viele Menschen nicht von vornherein solche offenen, kreativen Lernprozesse gut finden oder unterstützen, weil sie viel anstrengender sind als einfach einer autoritären Vorgabe zu folgen. Und es ist ein historisches Faktum, dass partielle Wahrheitsmodelle bei geeigneter Propaganda und gesellschaftlichen Druck eine große Anhängerschaft finden können.  Dies war und ist eine große Versuchung für alle narzisstischen und machtorientierte Menschen. Das scheinbar Einfachere und Bequemere wird damit sprichwörtlich zum ’highway to hell’.

8) Für eine offene Gesellschaft als natürlicher Entwicklungsumgebung für das Entstehen immer allgemeinerer Wahrheiten sowohl in den Beteiligten wie auch im Alltag scheinen von daher geeignete Bildungsprozesse sowie freie, unzensierte Medien (dazu gehört heute auch das Internet) eine grundlegende Voraussetzung zu
sein. Die Verfügbarkeit solcher Prozesse und Medien kann zwar keine bessere gedachte und gelebte Wahrheit garantieren, sie sind allerdings notwendige Voraussetzungen, für eine umfassendere Kultur der Wahrheit. [Anmerkung: Natürlich braucht es noch mehr Elemente, um einen einigermaßen freien Raum für möglicheübergreifende Wahrheiten zu ermöglichen.]

9) Vor diesem Hintergrund ist die weltweit zu beobachtende Erosion von freien Medien und einer offenen, kreativen Bildung ein deutliches Alarmsignal, das wir Menschen offensichtlich dabei sind, den Weg in ein wahrheitsfähige Zukunft immer mehr zu blockieren. Letztlich blockieren wir uns als Menschen damit nur selbst. Allerdings,
aus der kritischen Beobachtung alleine folgen keine wirkenden konkreten Verbesserungen. Ohne eine bessere Vision von Wahrheit ist auch kein alternatives Handeln möglich. Deswegen versuchen ja autoritäre Regierungen immer, zu zensieren und mit Propaganda und Fake-News die Öffentlichkeit zu verwirren.

V. KONTEXTE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

KÜNSTLICHE INTELLIGENZ – Newell und Simon 1976

PDF

IDEE

Im Jahr 2017 nimmt die Erwähnung von sogenannter Künstlicher Intelligenz außerhalb der Wissenschaften, im öffentlichen Bereich, fast inflatorisch zu. Zugleich muss man feststellen, dass Erklärungen des Begriffs ‚Künstliche Intelligenz‘ wie auch anderer Begriffe in seinem Umfeld Mangelware sind. Es wird daher ab jetzt mehr Blogeinträge geben, die auf diese Thematik gezielter eingehen werden. Hier ein erster Beitrag mit Erinnerung an einen wichtigen Artikel von Newell and Simon 1976.

I. INFORMATIK ALS EMPIRISCHE WISSENSCHAFT

Informatik als empirische Disziplin (nach Newell und Simon, 1976)
Informatik als empirische Disziplin (nach Newell und Simon, 1976)

Im Jahr 1975 empfingen Allen Newell und Herbert A.Simon den angesehenen ACM Turing Preis von der ACM aufgrund ihrer vielen wichtigen Beiträge zur Künstlichen Intelligenzforschung in den vorausgehenden Jahren. Die Preisrede beider Autoren wurde in den Communications of the ACM 1976 abgedruckt (siehe: NewellSimon:1976).

In dieser Rede wagen die Autoren eine generelle Sicht auf die Informatik (‚computer science‘), die Akzente erkennen lässt, die von heutigen Auffassungen von Informatik — zumindest wie sie in Deutschland üblich sind — doch deutlich abweicht.

Für die beiden Autoren ist die Informatik eine empirische Wissenschaft, deren Interesse darin besteht, das Verhalten von Menschen, dort, wo es Intelligenz erkennen lässt, in ein theoretisches Modell zu übersetzen, das sich dann als eine konkrete Maschine (ein Computer, ein Roboter) physikalisch realisieren lässt. Man kann dann diese konkrete Maschine dazu benutzen, Tests durchzuführen, durch die man überprüfen kann, ob sich die gebaute Maschine hinreichend ähnlich wie ein Mensch verhält oder aber davon deutlich abweicht. Liegen Abweichungen vor, dann muss man den Sachverhalt weiter ergründen und versuchen, ob man das theoretische Modell verbessern kann.

Für sie erscheint der Mensch als eine Art Standardmodell für Intelligenz, allerdings nicht so, dass man den Begriff ‚Intelligenz‘ mit einer einzigen Verhaltensweise oder mit einem einzigen Prinzip identifizieren könnte. Das vielfältige menschliche Verhalten verweist nach den Autoren vielmehr auf eine Vielzahl von Komponenten, deren Zusammenwirken zu einem als ‚intelligent‘ wirkenden Verhalten führt. Für das Erkennen einer möglichen ‚Intelligenz‘ ist es ferner wichtig, dass man den ganzen Kontext berücksichtigt, in dem spezifische Aufgaben vorliegen, die gelöst werden sollten.

Durch ihre Forschungsarbeiten zu symbolischen Systemen und zur heuristischen Suche haben Newell und Simon herausgefunden, dass die Klärung eines Problemraumes nur dann besser als zufällig sein kann, wenn der Problemraum minimale Regelhaftigkeiten, eine minimale Ordnung aufweist, die — sofern sie erkannt wurde — dann in Form spezieller Informationen angesammelt werden kann und dann, nach Bedarf, bei der Klärung des Problemraumes genutzt werden kann. Und es ist genau diese spezifische angesammelte Information die die Autoren mit Intelligenz gleichsetzen! Ein Mensch kann nur dann gezielter, schneller eine Aufgabe lösen, wenn er über spezielle Informationen (Wissen) verfügt, die ihn in die Lage versetzen, genau jene Verhaltensweisen zu zeigen, die schnell und effizient zum Ziel führen.

Überträgt man dies auf die theoretischen Modelle der Informatik, dann muss man Wege finden, spezifisches Bereichswissen (engl.: ‚domain knowledge‘) für ein intelligentes Verhalten in geeignete Datenstrukturen und Prozesse zu übersetzen. Auf die vielen Beispiele und Details zu diesen Überlegungen wird hier verzichtet [diese kann jeder in dem Artikel nachlesen ….].

II. DISKURS

Hier einige Überlegungen im Anschluss an den Artikel von Newell und Simon.

A. Intelligenz

Zunächst ist interessant, dass die Verwendung des Begriffs ‚Intelligenz‘ gebunden wird an das Verhalten von Menschen, wodurch der Mensch als undiskutierter Maßstab für mögliche Intelligenz gesetzt wird.

Daraus folgt nicht notwendigerweise, dass es jenseits des Menschen keine andere Formen von Intelligenz gibt, sondern nur, dass man den Typ von Intelligenz, der beim Menschen vorliegt und sichtbar wird, vorläufig als Standard benutzen möchte. Also eine Intelligenz mit Index: Intelligenz_human.

Das macht auch verständlich, dass man als wichtige empirische Wissenschaft in Begleitung der Informatik die kognitive Psychologie sieht, die sich u.a. auch mit der sogenannten ‚Informationsverarbeitung im Menschen‘ beschäftigt.

Es wundert dann allerdings, dass die Autoren den im Rahmen der Psychologie eingeführten Begriff des Intelligenz-Quotienten (IQ) samt den dazugehörigen erprobten Messverfahren nicht benutzen, nicht einmal erwähnen. Dies würde die Möglichkeit eröffnen, die Verhaltensleistung von technischen Systemen entsprechend zu messen und direkt mit Menschen zu vergleichen. Der oft zitierte Turing-Test (nicht von den beiden Autoren) ist verglichen mit den Testbatterien des IQ-Quotienten mehr als dürftig und nahezu unbrauchbar.

Durch den Verzicht auf die sehr detailliert ausgearbeiteten Testbatterien der Psychologie bleibt die Charakterisierung des Begriffs ‚Intelligenz‘ in der Informatik weitgehend vage, fast beliebig.

An dieser Stelle könnte man einwenden, dass in der Informatik andere Aufgabenstellungen untersucht werden als in der Psychologie üblich bzw. andere Aufgabenstellung, die Menschen in dieser Weise nicht angehen, dadurch wir die Verwendung des Begriffs ‚Intelligenz‘ aber noch undurchsichtiger, geradezu ominös.

Obgleich Newell und Simon betonen, dass sie die Informatik als eine empirische Theorie sehen, bleibt der ganze Komplex des tatsächlichen objektiven Messens etwas vage. Zum objektiven Messen gehören zuvor vereinbarte Standards, die beim Messen als Referenzen benutzt werden, um ein Zielobjekt zu ‚vermessen‘. Wenn das zu messende Zielobjekt ein Verhalten sein soll (nämlich das Verhalten von Maschinen), dann muss zuvor sehr klar definiert sein, was denn das Referenz-Verhalten von Menschen ist, das in einem (welchen?) Sinn als ‚intelligent‘ angesehen wird und das dazu benutzt wird, um das Maschinenverhalten damit zu vergleichen. Es ist weder bei Newell und Simon klar zu sehen, wie sie ihr Referenzverhalten von Menschen zuvor klar definiert haben, noch sind die Messprozeduren klar.

Der grundsätzliche Ansatz von Newell und Simon mit der Informatik als empirischer Disziplin (zumindest für den Bereich ‚Intelligenz) erscheint auch heute noch interessant. Allerdings ist das begriffliche Chaos im Kontext der Verwendung des Begriffs ‚Intelligenz‘ heute zu einem notorischen Dauerzustand geworden, der es in der Regel unmöglich macht, den Begriff von ‚künstlicher Intelligenz‘ in einem wissenschaftlichen Sinne zu benutzen. Jeder benutzt ihn heute gerade mal, wie es ihm passt, ohne dass man sich noch die Mühe macht, diese Verwendung irgendwie transparent zu machen.

B. Lernen

Während Newell und Simon im Fall des Begriffs ‚Intelligenz‘ zumindest ansatzweise versuchen, zu erklären, was sie damit meinen, steht es um den Begriff ‚Lernen‘ ganz schlecht.

Explizit kommt der Begriff ‚Lernen‘ bei den Autoren nicht vor, nur indirekt. Dort wo heuristische Suchprozesse beschrieben werden, die mit Hilfe von symbolischen Systemen geleistet werden, stellen sie fest, dass man aufgrund ihrer empirischen Experimente wohl (in dem theoretischen Modell) annehmen muss, dass man Informationen speichern und verändern können muss, um zu jenem Wissen kommen zu können, das dann ein optimiertes = intelligentes Verhalten ermöglicht.

Aus psychologischen Lerntheorien wissen wir, dass ‚Intelligenz‘ und ‚Lernen‘ zwei unterschiedliche Eigenschaften eines Systems sind. Ein System kann wenig intelligent sein und doch lernfähig, und es kann sehr intelligent sein und doch nicht lernfähig.

Nimmt man die Charakterisierung von Newell und Simon für ‚Intelligenz‘ dann handelt es sich um ein ’spezielles Wissen‘ zum Aufgabenraum, der das System in die Lage versetzt, durch ein ‚gezieltes Verhalten‘ schneller ans Ziel zu kommen als durch rein zufälliges Verhalten. Eine solche Intelligenz kann einem System zur Verfügung stehen, auch ohne Lernen, z.B. (i) bei biologischen Systemen als eine genetisch vererbte Verhaltensstruktur; (ii) bei technischen Systemen durch eine volle Konfiguration durch Ingenieure. Bei biologischen Systeme tritt allerdings ‚Intelligenz‘ nie isoliert auf sondern immer in Nachbarschaft zu einer Lernfähigkeit, weil die dynamische Umwelt biologischer Systeme beständig neue Anpassungen verlangt, die nicht alle vorher gesehen werden können. Im Fall technischer Systeme mit begrenzter Lebensdauer und definiertem Einsatz war dies (und ist dies) weitgehend möglich.

Wenn man von ‚Künstlicher Intelligenz‘ spricht sollte man daher die beiden Strukturen ‚Intelligenz‘ und ‚Lernen‘ sehr klar auseinander halten. Die Fähigkeit, etwas zu lernen, erfordert völlig andere Eigenschaften als die Struktur eines Wissens, durch das ein System sich ‚intelligent‘ statt ‚zufällig‘ verhalten kann.

C. Theorie

Die Forderung von Newell und Simon, die Informatik als eine ‚empirische Wissenschaft‘ zu betrachten, die richtige theoretische Modelle (= Theorien) konstruiert und diese über realisierte Modelle dann empirisch überprüft, hat im Rahmen des allgemeinen Systems Engineerings auch heute noch einen möglichen Prozess-Rahmen, der alle diese Forderungen einlösen kann. Allerdings hat es sich in der Informatik eingebürgert, dass die Informatik einen Sonderweg kreiert hat, der unter der Überschrift Softwareengineering zwar Teilaspekte des generellen Systemsengineerings abbildet, aber eben nur Teilaspekte; außerdem ist durch die Beschränkung auf die Software ohne die Hardware ein wesentlicher Aspekt des Gesamtkonzepts Computer ausgeklammert. Ferner ist der harte Aspekt einer vollen empirischen Theorie durch die Phasenbildungen ‚logisches Design‘ nur unvollständig abgebildet. Designmodelle sind kein Ersatz für eine richtige Theorie. Für das sogenannte ‚modellgetriebene Entwickeln‘ gilt das Gleiche.

D. Mensch als Maßstab

War es noch für Newell und Simon offensichtlich klar, dass man für den Begriff ‚Intelligenz‘ den Menschen als Referenzmodell benutzt, so ist dies in der heutigen Informatik weitgehend abhanden gekommen. Dies hat einmal damit zu tun, dass der Wissenschaftsbegriff der Informatik samt der meisten Methoden bislang nicht in den allgemeinen, üblichen Wissenschaftsbegriff integriert ist, zum anderen dadurch, dass die Aufgaben, die die intelligenten Maschinen lösen sollen, aus allen möglichen ad-hoc Situationen ausgewählt werden, diese keinen systematischen Zusammenhang bilden, und man in den meisten Fällen gar nicht weiß, wie man den Bezug zum Menschen herstellen könnte. Dadurch entsteht der vage Eindruck, dass die ‚Intelligenz‘ der künstlichen Intelligenzforschung irgendwie etwas anderes ist als die menschliche Intelligenz, von der menschlichen Intelligenz möglicherweise sogar ganz unabhängig ist. Man macht sich allerdings nicht die Mühe, systematisch und zusammenhängend die Verwendung des Begriffs der ‚Intelligenz‘ in der Informatik zu klären. Aktuell hat man den Eindruck, dass jeder gerade mal das behauptet, was ihm gerade gefällt. Auch eine Art von Fake News. Die Marketingabteilungen der großen Konzerne freut es, weil sie nach Belieben alles Versprechen können, was sie wollen, ohne dass irgendjemand sinnvoll nachprüfen kann, was das genau ist, ob das überhaupt geht.

Doch sollte man sich durch diese terminologische Unklarheiten, die auf eine fehlende wissenschaftliche Methodik der Informatik zurück zu führen sind, nicht davon ablenken lassen, zu konstatieren, dass trotz chaotischer Begrifflichkeit im Konkreten und Im Detail seit Newell und Simon 1976 extreme Fortschritte gemacht wurden in speziellen Algorithmen und spezieller Hardware, mit der man heute viel mehr realisieren kann, als sich Newell und Simon damals hätten träumen lassen. Die Vorteile, die man sich durch diese Fortschritte im Konkreten erarbeitet hat, werden aber weitgehend verspielt durch große Theoriedefizite, die zu gerade kuriosen Anschauungen und kuriosen Forschungsprojekten führen. In der KI ist dies aber nichts Neues: es gab sehr unterschiedliche Phasen; alle Fehler führten irgendwann dann doch zu verbesserten Einsichten.

QUELLE

Allen Newell and Herbert A. Simon. Computer science as empirical inquiry: Symbols and search. Communications of the ACM, 19(3):113–126, 1976.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DAS GANZE IN EINER NUSSSCHALE – In gewisser Weise ‚Ja‘

ANREGUNG VON PLATO & ARISTOTELES

  1. Im Kontext der Relektüre von Platon und Aristoteles, zunächst angeregt durch das Buch von Decher, dann vertiefend mit anderen Büchern, entstand immer mehr der Eindruck, dass das Ringen von Aristoteles um eine realistischere Sicht der Ganzheit des Lebens im Vergleich zu dem stark dualistisch-apriorisierenden Denken Platons, in seinem Kern, in den erkennbaren Strukturen, nicht so weit weg ist vom heutigen Denken. Natürlich muss man einige Begriffe neu übersetzen, natürlich muss man viele Details aktualisieren, aber die gesamte Ausrichtung gibt eine Fülle von Anregungen, die auch Lücken in unseren heutigen Ansätzen sichtbar machen. Die Meinungen gehen auseinander, ob Aristoteles auf der Zielgeraden letztlich dann doch Platons Sicht übernommen hat (Priorität und Andersartigkeit des Geistes über und vor allem anderen), oder ob man seine ähnlich klingenden Begriffe nicht doch von seinem Gesamtansatz her doch anders denken müsste.
  2. Bevor es aber dazu kam, dass ich mich in diese Begriffswelt von Platon, ganz besonders aber von Aristoteles, neu versenken konnte, setzte sich ein ganz anderes Karussell von Analogien in Bewegung.

Die fünf Paradoxien - Vorstufe: Geist und Materie
DAS GANZE IN EINER NUSSSCHALE. Fünf Themenkomplexe. Vorstufe: Geist und Materie

BIOLOGISCH VERSUS TECHNOLOGISCH

  1. Das vorausgehende Diagramm zeigt eine Gegenüberstellung von biologischen Systemen, wie z.B. dem homo sapiens, und von technischen Systemen wie z.B. intelligente Maschinen.
  2. Das Faszinierende bei biologischen Maschinen ist das Phänomen, dass rein materielle Bestandteile – wie man salopp im Alltag sagen würde – in der Lage sind, hochkomplexe Verhaltensweisen zu ermöglichen, die wir umschreiben mit Worten wie nett, liebenswürdig, gemein, aggressiv, dumm, intelligent, einfühlsam, vorausschauend, usw. Einem Menschen schreiben wir gewöhnlich geistige-emotionale Eigenschaften zu (ganz im Stile von Platon und Aristoteles; wobei beide nicht nur vom Geist sprechen, sondern auch von der Seele als dem eigentlichen Lebensprinzip mit dem Geist als Huckpackeigenschaft).
  3. Da wir heute die materiellen Bestandteile immer mehr auf ihre Zusammensetzung hin analysieren können (anders als Platon und Aristoteles), können wir wissen, dass der Körper ein Verband von vielen Billionen (10^12) Zellen darstellt, die wiederum aus einer unfassbar großen Zahl von Molekülen bestehen, diese wiederum aus Atomen, diese wiederum aus subatomaren Teilchen, die sich dann im Raum quantenphysikalischer Modelle von Wahrscheinlichkeitsverteilungen verlieren.
  4. Und dieses ganze Ensemble benötigt in jedem Moment Energie, die über Nahrung zugeführt wird; zusätzlich auch Flüssigkeit. Wird diese Zufuhr lang genug unterbrochen, bricht das System in sich zusammen. Wir sagen, es stirbt, und damit verschwindet auch sein Verhalten; die Aktivitäten, aufgrund deren wir einem Organismus Gefühle und Geist zugeschrieben haben, sind nicht mehr da. Ist damit der Geist (oder wie Platon und Aristoteles sagen würden: die Seele) auch vollständig weg (bei Aristoteles ja, bei Plato nein), oder existieren diese Nicht-Dinge Seele und Geist getrennt von den biologischen Körpern irgendwie weiter? Falls dem so wäre, müsste die Existenzform von Seele (Psyché) und Geist (Nous) im Sinne von Platon (und z.T. Aristoteles) anders sein als die Existenzform, die wir von biologischen Körpern kennen.
  5. Eher spontan hatte ich neben diese Struktur von biologischen Systemen jene von sogenannten intelligenten Maschinen aufgezeichnet. Strukturell kann man eine starke Analogie beobachten. Auch hier kann man materielle Bestandteile unterscheiden (Chips, Gatter, Verbände von Atomen), die ihre Zustände ändern können, und ein Verhalten, das man – je nach Ausführung und Kontext – auch als nett, intelligent, vorausschauend usw. beschreiben könnte.
  6. Solange Menschen wissen, dass es ja nur eine Maschine ist, sagen sie immer, das ist natürlich nicht wirklich wie beim Menschen. Ist es nicht so offensichtlich (z.B. bei Hausrobotern, die äußerlich wie echte Tiere aussehen), dann verschwindet dieser Vorbehalt und Menschen entwickeln zu den Maschinen eine – zumindest äußerlich ähnlich erscheinende – Beziehung wie zu biologischen Systemen.
  7. Auch Maschinen benötigen beständig Energie, um funktionieren zu können. In dem Fall elektrische Energie, die mittels Transformationsprozessen aus natürlichen Energiequellen gewonnen werden (Fossile Energien, biologische, Wasser- und Windenergie, Sonnenenergie, atomar, …).
  8. Im Wissen um die unterschiedlichen materiellen Substanzen, die den Verhaltensmanifestationen zugrunde liegen, stellt sich die Frage, wie kann es sein, dass so unterschiedliche Strukturen ein so ähnliches Verhalten hervorbringen können? Wie groß ist die Ähnlichkeit? Welche Rückschlüsse kann man auf den bei biologischen Systemen unterstellten Geist (bzw. auch auf das Lebensprinzip der Psychè von Platon und Aristoteles) ziehen nur aufgrund der unterschiedlichen materiellen Strukturen, die sie hervorbringen? Hätte ein Aristoteles seine Überlegungen geändert, wenn er von diesen neuen Details gewusst hätte? Platon möglicherweise ja, Aristoteles – nach meiner Einschätzung – eher nicht. Das Modell von Aristoteles könnte theoretisch mit diesen neuen Erkenntnissen umgehen.
  9. Die ganze Frage besitzt noch eine pikante Note, da die sogenannten intelligenten Maschinen ja nicht an Bäumen wachsen oder als Teil von Korallenriffen entstehen, sondern sie sind vollständig ein Produkt des homo sapiens, seines Denkens und seines Produzierens. Es ist der Mensch, der im Laufe der Jahrtausende gelernt hat, seine Wahrnehmung der Welt zu strukturieren, sie mittels Sprachen mit anderen zu teilen, sie in Handlungen zu überführen, und nach und nach es geschafft hat, die Funktionsprinzipien der Natur – einschließlich der biologischen Phänomene, also auch von sich selbst – soweit zu rekonstruieren, dass er Gebäude errichten konnte, ganze Städte baut, Flugkörper, Kommunikationsmittel, Computer, die ihm helfen können, sein eigenes Denken mehr und mehr zu imitieren und partiell sogar zu übertreffen. Anders gewendet, es ist der Mensch, der seine Art zu denken sowohl in ein gedachtes Modell übersetzt hat (Turing, von Neumann), als auch in eine reale Maschine (viele Personen), die man anschauen, mit der man konkret arbeiten kann.
  10. So betrachtet liegt eigentlich keine Parallelität vor, sondern eher so etwas wie eine Aufschichtung: die materiellen Strukturen des Menschen (sein Körper) sind in der Lage, intern Wolken von Ladungszuständen zu erzeugen und zu modifizieren, mittels denen sie die erfahrbare Welt wahrnehmen, vorstellen und denken können. Mittels diesen Bildern von der aktuellen Welt wie von denkbaren = möglichen Welten hat der Mensch ein mögliches Modell eines künstlichen Geistes gedacht und realisiert, der erkennbare Prinzipien der biologischen Natur sichtbar macht und dem Handlungs- und Denkraum des Menschen hinzufügt.
  11. Der Mensch selbst ist direkt und unmittelbar ein Produkt des evolutionären Naturprozesses. Die intelligenten Maschinen sind – vermittelt durch den biologischen Geist des Menschen – ebenfalls ein Produkt der Evolution. Allerdings finden wir hier eine dramatische Weiterentwicklung im Mechanismus der biologischen Evolution! Verfügte die Evolution bis zum Auftreten des homo sapiens nur über die Möglichkeit, anhand von (blinden! Rein zufälligen!) Änderungen im DNA-Molekül Veränderungen im Bereich des biologischen Lebens herbei zu führen, so stellte die Struktur des homo sapiens selbst schon eine Revolution dar: die biologische Möglichkeit innerer geistiger Zustände in einem biologischen System, die Fähigkeit von Selbstbewusstsein, das sich selbst als in der Welt seiend wahr zu nehmen, alternativ zu denken und zu kommunizieren, dies ermöglicht eine völlig neue Weise, Veränderungen im Kontext der biologischen Evolution einzuführen! Statt viele hundert oder tausend oder noch mehr Generationen abwarten zu müssen, bis irgendwelche zufälligen Änderungen eine brauchbare Veränderung entstehen ließen, kann jetzt jeder einzelne homo sapiens im Verbund mit allen anderen sehr schnell beliebige und komplexe Änderungen erfinden und umsetzen. Ergänzt und verstärkt durch intelligenten Maschinen kann dieser Prozess noch komplexer, noch schneller ablaufen. Einbettet in Netzwerke und verbunden mit Datenbanken ist prinzipiell noch mehr möglich.
  12. Nur der Mensch selbst, seine aktuelle körperliche und – wie wir noch immer salopp sagen – seine psychologische Struktur erweisen sich immer mehr als Hemmschuh: unsere Informationsverarbeitungskapazität ist sehr beschränkt und unser emotionales und triebhaftes Korsett erweist sich als sehr eng, schwerfällig und schlecht angepasst. Möglicherweise der größte Anteil aller Zukunftsmöglichkeiten des einzelnen und der ganzen Populationen wird aktuelle vergeudet, weil die Menschen nicht in der Lage sind, mit ihren Emotionen und Trieben nachhaltig umzugehen.

Die fünf Paradoxien der Menschheit heute - Version 2
DAS GANZE IN EINER NUSSSCHALE. Fünf Themenkomplexe. Version 2

ENTSTEHUNG VON KOMPLEXITÄT

  1. Damit kommen wir zur zweiten Skizze. Sie ist aus der ersten hervorgegangen.
  2. Ausgangspunkt waren die biologischen Strukturen, und hier das Phänomen der Entstehung der Komplexität im Laufe der Zeit.
  3. Zwar haben wir bislang eigentlich nur winzige Fragmente der vorausgehenden Zeit, aber mit den heutigen Methoden der Genetik und Molekularbiologie (ergänzt um viele Methoden aus vielen anderen Wissenschaften) ermöglichen diese Fragmente Blicke zurück in die Zeit, die bis noch vor 10 – 20 Jahren unvorstellbar waren. Immer noch verstehen wir nicht alles; immer noch bleiben viele Fragen offen; aber das Gesamtbild gewinnt immer mehr Konturen.
  4. Es gibt viele Ansätze, wie man diese Zeit des biologischen Lebens auf der Erde (ca. 4 Mrd.Jahre von heute rückwärts) strukturieren und deuten kann. Einer von vielen ist z.B. der von Nick Lane (2009), der versucht hat, die zehn wichtigsten Ereignisse der biologischen Evolution zu identifizieren und zu beschreiben. Er bezieht zwar das Phänomen des Bewusstseins (consciousness) mit ein, nicht mehr aber das, was sich auf der Basis von Bewusstsein dann getan hat. Für ihn als biologischer Chemiker ist dies nachvollziehbar, aber dem Phänomen der Evolution wird es möglicherweise nicht gerecht, weil Evolution mehr ist als das, was die Biochemie erfassen und behandeln kann.

NATUR UND GEIST

  1. Die Aufspaltung der Wissenschaft in Natur- und Geisteswissenschaften hat zwar in Europa eine lange (unglückliche?) Tradition, aber aus historischen Zufälligkeiten und Gewohnheiten folgt nicht ohne weiteres, dass dies auch dem Phänomen des Lebens als Teil der Natur gerecht wird. Der Mensch selbst erscheint aktuell als jene Revolution der Evolution, durch die sich die sogenannte materielle Natur in eine sogenannte geistige Natur transformiert hat. Die Revolte von Aristoteles gegen Plato wurzelt genau hier: Aristoteles wollte das Geistige als Teil des Natürlichen verstehen. Mit dem heutigen Wissen sind wir soweit, dass wir von dem heute Wissbaren ausgehend eigentlich nur sagen können, dass das bekannte Geistige eine Eigenschaft der bekannten materiellen Natur ist. Wer diese Aussage vorschnell als mögliche Abwertung des Geistigen versteht, sollte einen Moment innehalten: er/ sie sollte sich fragen, was er/sie denn vom sogenannten materiell Natürlichen weiß?
  2. Wenn es so ist, dass das bekannte Geistige als Eigenschaft des Natürlichen auftritt, sich zeigt, manifestiert, dann wäre die normale logische Fragerichtung jene, eben dieses materiell Natürliche einer neuen Analyse (und Interpretation) zu unterziehen. Wenn sogar intelligente Maschinen Phänomene hervorbringen können, die wir geistig zu nennen gewohnt sind, dann muss man die Frage stellen, welche inhärenten/ impliziten Eigenschaften des Materiellen sind es, die Geistiges real werden lassen?
  3. Bislang wissen wir, dass die komplexen Zellansammlungen von biologischen Lebewesen sich nur sehr langsam entwickelt haben. Allein schon der Übergang von einzelnen Zellen zu größerem Zellverbänden, die kooperieren, hat Milliarden Jahre gedauert. Und der Übergang von Molekülen zu Strukturen wie es eine Zelle ist hat mindestens einige hundert Millionen Jahre gedauert. Vollständige Erklärungsmodelle, wie man sich diesen Bildungsprozess auf der Basis der bekannten Naturgesetze vorstellen sollte, liegen noch nicht vor.
  4. Die bisherigen Denkmodelle der Physik zur Entstehung des bekannten Universums bieten nicht all zu viel: ein singuläres Energieereignis, in dessen Gefolge sich bei Abkühlung immer mehr Strukturen zeigten (subatomar, atomar, …), die zur Entstehung von Sternen führte, deren Fusionsprozesse weitere schwere Atome hervorbrachten, die wiederum zu Bausteinen jener Moleküle wurden, die im Verlauf von ca. 9 Mrd. Jahr dann bei der Entstehung biologischer Zellen beteiligt waren. Dann noch ein Entropiegesetz, das nicht wirklich ein Gesetz ist und vielfältige Interpretationen zulässt. Schließlich ein großes Schweigen angesichts des Phänomens einer nach 9 Mrd Jahren einsetzenden (biologischen) Komplexitätsbildung, für dies es bis heute keinerlei Ansatzpunkte in den bisherigen physikalischen Modellen gibt. Diejenigen Eigenschaften von Molekülen, die sich physikalisch erklären lassen, reichen nicht aus,um das Gesamtverhalten befriedigend erklären zu können.
  5. Die berühmte Formel von Einstein e=mc2 , durch die eine Beziehung zwischen dem Term Energie e und dem Term Masse m mal Quadrat der Lichtgeschwindigkeit c2 erhält ihre Bedeutung natürlich nur innerhalb des mathematischen Modells, in dem diese Terme definiert sind. In einer saloppen Interpretation kann man aber vielleicht sagen, dass die beobachtbaren (messbaren) Massen und Geschwindigkeiten mit jener Energie korrespondieren, die notwendig ist, dass sich dies beobachten lässt. Masse kombiniert mit Raumzeit ist die Manifestation von jener Energie, die die Physik bislang in ihre Modelle abgebildet hat. Dass diese Massen innerhalb der Raumzeit zu einem Prozess fähig sind, den wir als Ansteigen von funktionaler Komplexität im Bereich biologischer Systeme identifizieren, ist in den bisherigen physikalischen Modellen schlicht nicht vorgesehen. Warum auch; ein normaler Physiker interessiert sich nicht für Phänomene des Lebens (außerdem hat er ja auch ohne die biologischen Phänomene noch genügend Baustellen (dunkle Materie, dunkle Energie, Gravitation,…). Und jene Physiker, die es dann doch manchmal versucht haben (Schroedinger, Davis, ..) sind dann in den Modus des Staunens verfallen und haben immerhin dahingehend Größe gezeigt, dass sie ihr Nocht-Nicht-Verstehen zugegeben haben.
  6. Schliesslich gibt es auch noch die offene Frage, wie man den von den Möglichkeits- und Wahrscheinlichkeitsräumen der Quantenphysik zur jeweilig konkreten Welt (Universum) kommt. Zu sagen, dass unendlich viele Welten rein theoretisch möglich sind, war eine revolutionäre Einsicht. Wie kommt man aber von der Möglichkeit zur Singularität eines konkreten Universums? Und auch hier: wie verhält sich die immer mehr erkennbare evolutionäre biologische Komplexität zum physikalischen Modell einer Energie, die mit Masse und Raumzeit korrespondiert?

Die fünf Paradoxien - Bild 4
DAS GANZE IN EINER NUSSSCHALE. Fünf Themenkomplexe. Version 4

  1. Die vorausgehenden Überlegungen führten zwanglos zu einer dritten Skizze, die sich durch ein langes Telefonat mit Si.Sch. in eine Skizze mit vielen Anmerkungen verwandelte (Diagramm 4).
  2. Ich merke schon, dass eine vollständige Beschreibung dieser Version den Rahmen dieser Blogeintrags völlig sprengen würde. Daher hier nur ein paar erste Gedanken, die dann in weiteren Blogeinträgen (und Gesprächen in der Philosophiewerkstatt und im Emerging Mind Projekt) zu vertiefen sind.

SELBSTABSCHALTUNG – VERWEIGERUNG VON ZUKUNFT

  1. Der Themenkomplex 4 wird inspiriert von dem alltäglichen Phänomen der Selbstabschaltung des Menschen. Zwar ist unser kognitiver Apparat so gebaut, dass die Wahrnehmung schon vorab, ohne Zutun des Bewusstseins, den Strom der sensorischen Reize stark reduziert, abstrahiert und selektiert, aber darüber hinaus gibt es das Phänomen, dass Menschen sich in ihrem Bewusstsein, in ihrem Denken von innen heraus abschalten! Abschalten heißt hier, sich auf ein bestimmtes (meist – aber nicht notwendigerweise – vereinfachendes) Bild der Wirklichkeit festzulegen und dann alles zu tun, um es nicht mehr ändern zu müssen. Von diesem Zeitpunkt an hat in diesem Bild alles irgendwie seinen Platz. Dies ist sehr bequem. Man muss sich nicht mehr mühsam damit beschäftigen, was wirklich wahr ist, ob es wirklich so wahr, ob es wirklich nicht anders geht, ob der Andere vielleicht ganz anders ist als gedacht, usw.
  2. Im Falle von intelligenten Maschinen spricht man salopp von falsch programmiert, wenn das Programm nicht das tut, was es tun soll. Letztlich haben falsche Bilder im Kopf die gleichen Wirkungen wie falsch programmierte Maschinen: sie liefern falsche Bilder von der Welt, verstellen richtige Einsichten, begünstigen falsches Verhalten. Menschen, die nicht merken, dass sie falsche Bilder im Kopf haben (bzw. falsch programmiert sind), können Zukunft gefährden oder ganz unmöglich machen, ihre eigene wie die ganzer Gruppen oder Populationen.
  3. Da die Welt sich permanent ändert, heute womöglich schnelle denn je, ist es eine Herausforderung an das biologische Leben, dafür zu sorgen, dass die Bilder im Kopf aktuelle sind, differenziert, wahr, empathisch, also zukunftsfähig.
  4. Hier sind alle Formen des Lernens einschlägig, kulturelle Muster die vorleben, wie man mit sich selbst, den anderen, der Wirklichkeit umgeht. Die Wirklichkeit, die Wahrheit lässt sich weder verordnen noch einsperren. Wohl aber kann man Menschen einsperren, abrichten, mit Ängsten der Hass vollpumpen, um sie an eigenen, anderen Erkenntnissen zu hindern.

GESELLSCHAFTLICHE RAHMENBEDINGUNGEN FÜR EVOLUTION

  1. Dies führt zum Fragenkomplex Nr.5. Die Geschichte hat verschiedene Gesellschaftssysteme hervorgebracht, u.a. auch solche, die sich demokratisch nennen. Diese Gesellschaftssysteme haben als Grundeinsicht, dass die Chance für eine mögliche nachhaltige Zukunft durch Öffnung und Beteiligung von jedem einzelnen wächst. Analog der blinden biologischen Evolution, die nur Erfolg hatte durch umfassendes radikales Experimentieren, so können auch die Menschen mit der Masse ihres falschen Wissens nur weiter kommen, wenn sie sich allen sich bietenden Möglichkeiten gegenüber öffnen, sie ausprobieren. Freiheit, Offenheit, Kreativität, Meinungsaustausch, funktionierenden Öffentlichkeit, Menschenrechte sind kein überflüssiger Luxus, sondern die biologisch motivierten und sachlich notwendigen Voraussetzungen für eine mögliche Begegnung mit einer nachhaltigen Zukunft. Schon heute kennen wir zahllose Beispiele von umfassenden Zerstörungen, die entstehen, wenn Menschen glauben, dass dies alles nicht notwendig sei.
  2. Der Slogan vom ‚Überleben der Tüchtigsten‘ wird gerne benutzt, um allerlei Arten von Egoismen und Grausamkeiten zu rechtfertigen, gepaart mit riesengroßen Dummheiten in der Zerstörung vielfältigster Ressourcen. Der Slogan beschreibt aber nur einen Teilaspekt der Evolution! Natürlich überleben nur die, die sich für die jeweilig Weltsituation fit gemacht haben, aber dies ist keine Eigenschaft eines Individuums, sondern einer ganzen Population, die nur durch vielfältige Kooperationen mit zahllosen Faktoren Leben gelingen lässt. In der aktuellen Phase der Evolution gilt mehr denn je, dass nur das Zusammenwirken aller Beteiligen eine Chance hat, und hier spielt das gemeinsam geteilte Wissen eine zentrale Rolle, das nicht von einzelnen Playern egoistisch für partielle Zwecke missbraucht wird, sondern von allen für eine gemeinsame nachhaltige Zukunft genutzt werden kann. Ohne Vertrauen und umfassende Transparenz wir die Komplexität an sich selbst scheitern. Es reicht nicht, dass einzelne mächtig und reich sind, alle müssen optimal leben, um die Aufgabe der kommenden Zeit meistern zu können. Die aktuellen Wertesysteme sind weitgehend veraltet und tödlich. Nur gemeinsam kann Neues entstehen.

Anmerkung: Diese Perspektive, die sich jetzt im Verlaufe dieser Überlegungen herausgeschält hat, ist stark verwoben mit den Überlegungen von Manfred Fassler im Blog Emergent Life Academy. Ich verdanke den intensiven Gesprächen mit Manfred sehr viele wichtige und tiefe Einsichten. Möglicherweise hilft es uns beiden, dass wir von unterschiedlichen Blickwinkeln aus auf das Geschehen schauen: er als Soziologe und Kulturanthropologe, ich als Philosoph  und Infomatiker (mit starken Einflüssen aus den Kognitionswissenschaften).

 

QUELLEN

  • Nick Lane, Life Ascending. The Ten Great Inventions of Evolution, London: Profile Books Ltd, 2009

Eine Übersicht über alle Blogbeiräge von cagent nach Titeln findet sich HIER

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

INTELLIGENZ, LERNEN, IMPLIZITE WERTE: ZUR BIOTECHNOLOGISCHEN KREATIVITÄT VERURTEILT

EINFÜHRUNG

1. Momentan kreuzen wieder einmal verschiedene Themen ihre Bahnen und die folgenden Zeilen stellen den Versuch dar, einige Aspekt davon festzuhalten.

2. Ein Thema rührt von dem Vortrag am 19.Mai her, bei dem es darum ging, die scheinbare Einfachheit, Begrenztheit und Langsamkeit von uns Menschen angesichts der aktuell rasant erscheinenden Entwicklungen in einen größeren Kontext einzuordnen, in den Kontext der biologischen Entwicklung, und dabei aufzuzeigen, welch fantastisches ‚Produkt‘ der homo sapiens im Kontext des biologischen Lebens darstellt und dass unsere Gegenwart nicht als ein ‚Endpunkt‘ misszuverstehen ist, sondern als eine hochaktive Transitzone in eine Zukunft, die keiner wirklich kennt.

3. Ein anderes Thema rührt her von den neuen Technologien der Informationstheorie, Informatik, Robotik, die unser Leben immer mehr begleiten, umhüllen, durchtränken in einer Weise, die unheimlich werden kann. In den Science-Fiction Filmen der letzten 40-50 Jahren werden die ‚intelligenten Maschinen‘ mehr und mehr zu den neuen Lichtgestalten während der Mensch verglichen mit diesen Visionen relativ ‚alt‘ aussieht.

4. Während viele – die meisten? – dem Akteur homo sapiens momentan wenig Aufmerksamkeit zu schenken scheinen, auf ihn keine ernsthafte Wetten abschließen wollen, traut man den intelligenten Maschinen scheinbar alles zu.

5. Ich selbst liefere sogar (neue) Argumente (in vorausgehenden Artikeln), warum eine Technologie der künstlichen Intelligenz ‚prinzipiell‘ alles kann, was auch biologische Systeme können.

6. In den Diskussionen rund um dieses Thema bin ich dabei verstärkt auf das Thema der ‚impliziten Werte‘ gestoßen, die innerhalb eines Lernprozesses Voraussetzung dafür sind, dass das Lernen eine ‚Richtung‘ nehmen kann. Dieser Punkt soll hier etwas ausführlicher diskutiert werden.

INTELLIGENZ

7. Eine Diskussion über die Möglichkeit von Intelligenz (bzw. dann sogar vielleicht einer Superintelligenz) müsste klären, wie man überhaupt Intelligenz definieren will. Was ‚Intelligenz an sich‘ sein soll, das weiß bis heute niemand. Die einzigen, die seit ca. 100 Jahren einen empirisch brauchbaren Intelligenzbegriff entwickelt haben, das sind die Psychologen. Sie definieren etwas, was niemand kennt, die ‚Intelligenz‘, ganz pragmatisch über einen Katalog von Aufgaben, die ein Kind in einem bestimmten Alter in einer bestimmten Gesellschaft so lösen kann, dass man dieses Kind in dieser Gesellschaft als ‚intelligent‘ bezeichnen würde. Bei einem Menschen mit einem anderen Alter aus einer anderen Gesellschaft kann dieser Aufgabenkatalog ganz andere Ergebnisse liefern.

8. Interessant ist in diesem Zusammenhang, dass Kinder, denen man aufgrund ihres vermessenen Verhaltens einen hohen Intelligenzwert zugeschrieben hat, bei Langzeituntersuchung auch überdurchschnittlich ‚erfolgreich‘ (eine in sich nicht einfache Kategorie) waren. Daraus hat man die Arbeitshypothese abgeleitet, dass das messbare intelligente Verhalten ein Indikator für bestimmte ‚interne Strukturen im Kind‘ ist, die dafür verantwortlich sind, dass das Kind solch ein Verhalten hervorbringen kann. Und es sind genau diese postulierten Ermöglichungsstrukturen für de Intelligenz, die im Kind wirksam sein sollen, wenn es im Laufe seines Lebens ‚erfolgreich‘ ist.

9. Die Ingenieurwissenschaften und die Informatik benutzen Begriffe wie ’smart‘ und ‚intelligent‘ heute fast inflationär, ohne sich in der Regel die Mühe zu machen, ihre technischen Intelligenzbegriffe mit dem psychologischen Intelligenzbegriff abzugleichen. Dies führt zu großen Begriffsverwirrungen und man kann im Falle der technischen Intelligenz in der Regel nicht sagen, in welchem Sinne ein Interface oder eine Maschine ‚intelligent‘ ist, wenn sie technisch ’smart‘ oder ‚intelligent‘ genannt wird.

10. Der berühmt Turing-Test zur Feststellung, ob eine technische Vorrichtung sich in ihrem textbasierten Dialog mit einem Menschen für den beteiligten Menschen als ununterscheidbar zu einem Menschen darstellen kann, ist nach den Standards der Psychologie wenig brauchbar. Die endlosen Diskussionen um den Turing-Test dokumentieren für mich die immer noch anhaltende methodische Verwirrung, die sich im Umfeld des technischen Intelligenzbegriffs findet. Das hohe Preisgeld für den Turing-Test kann die evidenten inhärenten Schwächen des Tests nicht beheben.

11. Wenn wir also über intelligente (oder gar super intelligente) Maschinen reden wollen, sollten wir uns an bekannte, empirisch nachprüfbare und vergleichbare Standards halten, und dies sind die der empirischen Psychologie. Das gleiche gilt auch für den nächsten zentralen Begriff, dem des ‚Lernens‘.

LERNEN

12. Auch bei dem Begriff ‚Lernen‘ finden wir wieder einen inflationären Sprachgebrauch von ‚Lernen‘ in der Informatik, der in keiner Weise mit dem empirischen Begriff des Lernens in den verhaltensorientierten Wissenschaften abgestimmt ist. Was eine ‚intelligente‘ Maschine der Informatik im Vergleich zu biologischen Systemen darstellen soll, ist im allgemeinen Fall unklar. An konkreten Beispielen wie ’schachspielender Computer, ‚Routenplanung‘ für eine Reise, ‚Quizfragen beantworten‘, ‚Gegenstände erkennen‘, gibt es zwar partielle verhaltensorientierte Beschreibungen von ‚maschineller Intelligenz‘, diese sind aber nicht in eine allgemeine verhaltensorientierte Theorie ‚intelligenter Maschinen‘ integriert.

13. In den verhaltensorientierten Wissenschaften wird ‚Lernen‘ über beobachtbares Verhalten definiert. ‚Anhaltende Verhaltensänderungen‘ in ‚Abhängigkeit von bestimmten Umweltereignissen‘ bilden die Anknüpfungspunkte, um im beobachteten System allgemein Zustände anzunehmen, die sich wahrnehmungsabhängig und erinnerungsabhängig ’nachhaltig ändern‘ können. Was genau sich ändert, weiß ein Psychologe nicht, nur dass es geeignete interne Strukturen geben muss, wenn sich ein bestimmtes Verhalten zeigt.

14. Setzt man den Körper als Ermöglichungsstruktur voraus, dann beschränkt sich Lernen auf interne Veränderungen des gegebenen Körpers. Das wäre das ’normale‘ lokale individuelle Lernen. Man kann aber auch die Strukturen eine Körpers selbst als Ergebnis eines Lernprozesses auffassen, dann bezieht sich das Lernen auf den Wandel der Körperstrukturen und -formen und die dafür verantwortlichen (angenommenen) internen Zustände sind z.T. im Reproduktionsmechanismus zu verorten. Insgesamt erscheint das strukturelle Lernen aber als komplexer mehrstufiger Prozess, der Phylogenese, Ontogenese und Epigenese umfasst.

GERICHTETE KREATIVE ENTWICKLUNG

15. Solange ein System sich in seinem Lernen damit beschäftigt, Ereignisse zu identifizieren, zu klassifizieren, Muster zu erfassen, auftretende Beziehungen zu erfassen, so lange ist das Lernen ‚an sich‘ ‚wertfrei‘. Spannender wird es bei ‚Auswahlprozessen‘: womit soll sich ein System beschäftigen: eher A oder eher Nicht-A? Durch Auswahlprozesse bekommt der individuelle Lernprozess eine ‚Richtung‘, einen selektierten Ereignisraum, der sich dann auch in den Wissensstrukturen des Systems widerspiegeln wird. Jede ‚Lerngeschichte‘ korrespondiert auf diese Weise mit einer entsprechenden ‚Wissensstruktur‘. Wenn jemand Weinanbau gelernt hat, aber es gibt keinen Wein mehr, sondern nur noch Handwerk, ist er ‚arbeitslos‘ oder muss ‚umlernen‘. Wer Betriebswirtschaft gelernt hat, aber zu wenig von Qualitätsprozessen versteht, kann erfolgreiche Firmen in den Ruin steuern. Auswahlprozesse realisieren ‚Präferenzen‘: Eher A als Nicht-A. Präferenzen repräsentieren implizit ‚Werte‘: A ist besser/ wichtiger als Nicht-A.

16. Im Falle der biologischen Evolution werden die Präferenzen sowohl vom biologischen Reproduktionsmechanismus geliefert (bis dahin vorhandene Erbinformationen), wie auch durch die herrschende Umgebung, die von bestimmten Körperformen nicht gemeistert werden konnten, von anderen schon. Die in ihren Nachkommen überlebenden Körperformen repräsentierten dann mit ihren Erbinformationen eine von außen induzierte Präferenz, die ‚gespeicherten Präferenzen der Vergangenheit‘ als eine Form von ‚Erinnerung‘, als ‚Gedächtnis‘. Über die ‚Zukunft‘ weiß die biologische Entwicklung nichts! [Anmerkung: Diese Ideen finden sich u.a. auch schon in den Schriften von Stuart Alan Kauffman. Sie ergeben sich aber auch unmittelbar, wenn man mit genetischen Algorithmen arbeitet und die Lernstruktur dieser Algorithmen heraushebt.].

17. Die biologische Entwicklung lebt vielmehr von der – impliziten! – ‚Hoffnung‘, dass die umgebende Welt sich nicht schneller ändert als die gespeicherten Erbinformationen voraussetzen. Da wir heute wissen, dass sich die Welt beständig verändert hat, teilweise sehr schnell oder gar blitzartig (Vulkanausbruch, Asteroidenbeschuss, Erdbeben,…), kann man sich fragen, wie die biologische Evolution es dann geschafft hat, das Leben quasi im Spiel zu halten, ohne etwas über die Zukunft zu wissen? Die Antwort ist eindeutig: durch eine Kombination von Kreativität und von Masse!

18. Die ‚Kreativität‘ ist implizit; die Reproduktion eines neuen Körpers aus vorhandenen genetischen Informationen verläuft auf sehr vielen Ebenen und in sehr vielen aufeinanderfolgenden Phasen. Fasst man diesen ganzen Prozess als eine ‚Abbildung‘ im mathematischen Sinne auf, dann kann man sagen, dass die Zuordnung von Körpern zu Erbinformationen nicht eindeutig ist; aus der gleichen Erbinformation kann rein mathematisch eine nahezu unendlich große Anzahl von ‚Varianten‘ entstehen, mit einem möglichen ‚Variantenkern‘. In der empirischen Welt ist die Varianz erstaunlich gering und der Variantenkern erstaunlich stabil. Aber offensichtlich hat die verfügbare Varianz ausgereicht, um die sich stark verändernden Umgebungsbedingungen bedienen zu können. Voraus zur Zukunft in einer sich verändernden Welt hat man immer nur ein Teilwissen. Das ‚fehlende Wissen‘ muss man sich teuer erkaufen; es gibt nichts zu Nulltarif. Für jedes Leben, das man in der Zukunft erhalten will, muss man einen – nicht leicht genau zu bestimmenden – hohen Einsatz erbringen, in der Hoffnung, dass die Breite des Ansatzes ausreichend ist.

GEGENWART ALS TRANSIT

19. Verglichen mit den Dramen der Vergangenheit könnten uns die ‚Erfolge‘ der Gegenwart dazu verleiten, anzunehmen, dass wir Menschen ‚über dem Berg‘ sind. Dass wir jetzt so langsam alles ‚im Griff‘ haben. Diese Vorstellung könnte sehr sehr trügerisch sein. Denn das Überleben auf der Erde rechnet in Jahrhunderttausenden, Millionen oder gar hunderten von Millionen Jahren. Eine kurzfristige ‚Boomzeit‘ von ein paar Jahrzehnten besagt nichts, außer dass wir feststellen, dass schon in wenigen Jahrzehnten ungeheuer viele biologische Arten ausgestorben sind, viele weitere vom Aussterben bedroht sind, und allein wir Menschen viele zentrale Probleme der Ernährung, des Wassers und der Energie noch keineswegs gelöst haben. Außerdem haben wir nach heutigem Kenntnisstand nicht noch weitere 4 Milliarden Jahre Zeit, sondern höchstens ca. eine Milliarde Jahre, weil dann laut der Physik die Sonne sich aufgrund ihrer Kernfusionsprozess sich soweit ausgedehnt haben wird, dass ein Leben auf der Erde (nach heutigem Kenntnisstand) nicht mehr möglich sein wird.

20. Letztlich dürften wir weiterhin in dieser Position der anzustrebenden Meisterung von etwas ‚Neuem‘ sein, das wir vorab nur partiell kennen. Nur durch ein hinreichendes Maß an Kreativität und hinreichend vielfältigen Experimenten werden wir die Herausforderung meistern können. Jede Form der Festschreibung der Gegenwart als ‚unveränderlich‘ ist mittel- und langfristig tödlich.

BIOLOGIE UND TECHNIK IN EINEM BOOT

21. Aus den vorausgehenden Überlegungen ergeben sich unmittelbar einige weitreichende Folgerungen.

22. Die heute gern praktizierte Trennung von Biologie einerseits und Technologie andererseits erscheint künstlich und irreführend. Tatsache ist, dass die gesamte Technologie aus der Aktivität des biologischen Lebens – speziell durch den homo sapiens – entstanden ist. Etwas Biologisches (der homo sapiens) hat mit Mitteln der Biologie und der vorfindlichen Natur ‚Gebilde‘ geschaffen, die so vorher zwar nicht existiert haben, aber sie sind auch nicht aus dem ‚Nichts‘ entstanden. Sie sind durch und durch ‚biologisch‘, wenngleich – faktisch – mit der übrigen Natur, mit dem bisherigen Ökosystem nicht immer ‚optimal‘ angepasst. Aber die Natur selbst hat millionenfach Systeme erzeugt, die nicht optimal angepasst waren. Die Natur ist ein dynamisches Geschehen, in dem milliardenfach, billionenfach Strukturen generiert werden, die für eine Zukunft gedacht sind, die keiner explizit kennt. Es ist sozusagen ein allgemeines ‚Herantasten‘ an das ‚werdende Unbekannt‘. Wer hier glaubt, die bekannte Gegenwart als ‚Maßstab schlechthin‘ benutzen zu können, irrt schon im Ansatz.

23. Wenn nun ein Teil dieser Natur, der homo sapiens als Realisierung eines biologischen Systems, es durch seine Aktivitäten geschafft hat, seine unmittelbare Lebensumgebung umfassend und zugleich schnell so umzugestalten, dass er als Hauptakteur nun plötzlich als ‚Flaschenhals‘ erscheint, als ‚Bremsklotz‘, dann ist dies zunächst einmal keine ‚Panne‘, sondern ein riesiger Erfolg.

24. Die körperlichen Strukturen des homo sapiens, ein Wunderwerk von ca. 4 Milliarden Jahren ‚Entwicklungsarbeit‘, besitzen eine Substruktur, das Gehirn, das in der Lage ist, die strukturellen Lernprozesse der biologischen Körper in Gestalt lokaler individueller Lernprozesse dramatisch zu beschleunigen. Komplexe Gedächtnisstrukturen, komplexe Begriffsoperationen, Symbolgebrauch, Logik und Mathematik, Rechenmaschinen, Bücher, Computer, Daten-Netzwerke haben dem individuellen Gehirn eine ‚kognitive Verstärkung‘ verpasst, die die Veränderungsgeschwindigkeit des strukturellen Körperlernens von einer Dimension von etwa (optimistischen) 10^5 Jahren auf etwa (pessimistischen) 10^1 Jahren – oder weniger – verkürzt haben. Dies stellt eine absolute Revolution in der Evolution dar.

25. Hand in Hand mit der dramatischen Verkürzung der Lernzeit ging und geht eine dramatische Steigerung der Kooperationsfähigkeit durch Angleichung der Sprache(n), Angleichung der Datenräume, politisch-juristische Absicherung sozialer Räume, Verbesserung der Infrastrukturen für große Zahlen und vielem mehr.

26. Innerhalb von nur etwa 50-100 Jahren ist die Komplexitätsleistung des homo sapiens geradezu explodiert.

27. Bislang sind die neuen (noch nicht wirklich intelligenten) Technologien eindeutig eine Hilfe für den homo sapiens, sich in dieser Welt zurecht zu finden.

28. Wenn man begreift, dass die scheinbare ‚Schwäche‘ des homo sapiens nur die Kehrseite seiner ungeheuren Leistungsfähigkeit sind, sein gesamtes Umfeld dramatisch zu beschleunigen, dann würde die naheliegende Frage eigentlich sein, ob und wie der homo sapiens die neuen Technologien nutzen kann, um seine aktuellen begrenzten körperlichen Strukturen eben mit Hilfe dieser neuen Technologien soweit umzubauen, dass er selbst mit seinen eigenen Gestaltungserfolgen auf Dauer noch mithalten kann (und es ist ja kein Zufall, dass die gesamte moderne Genetik ohne Computer gar nicht existieren würde).

29. Bislang bremsen ‚veraltete‘ Ethiken in den Köpfen der Politik eine dynamische Erforschung der alternativen Strukturräume noch aus. Dies ist bis zu einem gewissen Grad verständlich, da der homo sapiens als ‚Transitwesen‘ sich nicht selbst ruinieren sollte bevor er neue leistungsfähige Strukturen gefunden hat; aber Verbote als grundsätzliche Haltung sind gemessen an der erfolgreichen Logik des Lebens seit 4 Milliarden Jahre grundlegend unethisch, da lebensfeindlich.

30. Auch die heute so ‚trendige‘ Gegenüberstellung von homo sapiens und ‚intelligenten lernenden Maschinen‘ erscheint nach den vorausgehenden Überlegungen wenig wahrscheinlich.

31. Einmal hätten mögliche intelligente Maschinen das gleiche Entwicklungsproblem wie die biologischen Systeme, die ihre Überlebensfähigkeit seit 4 Milliarden Jahre demonstriert haben. Biologische Systeme haben einen ‚mehrlagigen‘ Lernmechanismus‘ ausgebildet, der ‚Kreativität‘ als wesentlichen Bestandteil enthält. Die bisherigen Konzepte für maschinelle Intelligenz sind verglichen damit höchst primitiv. Maschinelle Intelligenz ‚für sich‘ ist auch völlig ortlos, kontextfrei. Als Moment am biologischen Entwicklungsprozess jedoch,in einer symbiotischen Beziehung zu biologischen Systemen, kann künstliche Intelligenz eine maximal hohe Bedeutung gewinnen und kann von den ‚Wertfindungsmechanismen‘ der biologischen Systeme als Teil einer vorfindlichen Natur profitieren.

32. Die Gegenübersetzung von homo sapiens und (intelligenter) Technologie ist ein Artefakt, ein Denkfehler, ein gefährlicher Denkfehler, da er genau die maximale Dynamik, die in einer biotechnologischen Symbiose bestehen kann, behindert oder gar verhindert. Das wäre lebensfeindlich und darin zutiefst unethisch.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

DAS NEUE MENSCHENBILD – ERSTE SKIZZE

MUSIK ZUR EINSTIMMUNG

Das Stück „Wenn die Worte aus der Dunkelheit aufsteigen wie Sterne“ entstand zunächst als ein reines Instrumentalstück (die erste Hälfte des aktuellen Stücks; diesen Teil hatte ich auch schon mal am 4.April im Blog benutzt). Doch inspirierte die Musik zum ‚Weitermachen‘, zunächst entstand eine Fortsetzung rein instrumental; dann habe ich ab der Mitte spontan einen Text dazu gesprochen. Im Nachhinein betrachtet passt dieser Text sehr gut zum heutigen Blogeintrag (ist kein Dogma … :-))

UNSCHULDIGER ANFANG

1. Als ich am 20.Januar 2007 – also vor 7 Jahren und 3 Monaten – meinen ersten Blogeintrag geschrieben habe, da wusste ich weder genau, was ich mit dem Blog wollte noch konnte ich ahnen, was durch das Niederschreiben von Gedanken alles an ‚kognitiven Bildern‘ von der Welt und dem Menschen entstehen konnte. Langsam schälte sich als Thema – wenngleich nicht messerscharf – ‚Neues Weltbild‘ heraus. Das konnte alles und nichts sein. Aber im gedanklichen Scheinwerferkegel von Theologie, Philosophie, Wissenschaftstheorie, Psychologie, Biologie, Linguistik, Informatik, Neurowissenschaften, Physik gab es Anhaltspunkte, Eckwerte, die den aktuellen Gedanken wie eine Billardkugel von einer Bande zur anderen schickten. Dazu die heutige, aktuelle Lebenserfahrung und die vielen Begegnungen und Gespräche mit anderen Menschen.

2. Die letzten beiden Blogeinträge zum Thema Bewusstsein – Nichtbewusstsein markieren einen Punkt in dieser Entwicklung, ab dem ‚wie von Zauberhand‘ viele einzelnen Gedanken von vorher sich zu einem Gesamtbild ‚zusammen schieben‘, ergänzen.

AUSGANGSPUNKT INDIVIDUELLES BEWUSSTSEIN

3. Akzeptieren wir den Ausgangspunkt des individuellen Bewusstseins B_i als primären Erkenntnisstandpunkt für jeden Menschen, dann besteht die Welt für jeden einzelnen zunächst mal aus dem, was er/ sie im Raume seines eigenen individuellen Bewusstseins erleben/ wahrnehmen kann.

4. Da es aber zur Natur des individuellen Bewusstseins gehört, dass es als solches für ‚andere‘ ‚unsichtbar‘ ist, kann man auch nicht so ohne weiteres über die Inhalte des eigenen Bewusstseins mit anderen reden. Was immer man mit Hilfe eines Ausdrucks A einer Sprache L einem anderen mitteilen möchte, wenn der Ausdruck A als Schallwelle den anderen erreicht, hat er zwar einen Schalleindruck (falls erhören kann), aber er/ sie weiß in dem Moment normalerweise nicht, welcher Inhalt des Bewusstseins des Sprechers damit ‚gemeint‘ sein könnte.

5. Dass wir uns trotzdem ‚unterhalten‘ können liegt daran, dass es offensichtlich einen ‚Trick‘ geben muss, mit dem wir diese unüberwindliche Kluft zwischen unseren verschiedenen Bewusstseinsräumen überwinden können.

KLUFT ZWISCHEN INDIVIDUELLEN BEWUSSTSEINSRÄUMEN ÜBERWINDEN

6. Der ‚Trick‘ beruht darauf, dass der individuelle Bewusstseinsraum einem ‚individuellen Körper‘ zugeordnet ist, dass es in diesen Körper Gehirne gibt, und dass das individuelle Bewusstsein eines Körpers k_i als Ereignis im Gehirn g_i des Körpers k_i zu verorten ist. Das Bewusstsein B_i partizipiert an den Gehirnzuständen des Gehirns, und dieses partizipiert an den Körperzuständen. Wie die Wissenschaft mühsam erarbeitet hat, können bestimmte Außenweltereignisse w über ‚Sinnesorgane‘ in ‚Körperereignisse‘ ‚übersetzt‘ werden‘, die über das Gehirn partiell auch das Bewusstsein erreichen können. Sofern es jetzt Außenweltereignisse w‘ gibt, die verschiedene Körper in ähnlicher Weise ‚erreichen‘ und in diesen Körpern via Gehirn bis zu dem jeweiligen individuellen Bewusstsein gelangen, haben diese verschiedenen individuellen Bewusstseinsräume zwar ‚rein private‘ Bewusstseinszustände, aber ‚gekoppelt‘ über Außenweltzustände w‘ haben die verschiedenen Bewusstseinszustände B_1, …, B_n alle Bewusstseinsereignisse b_i, die als solche ‚privat‘ sind, aber ‚zeitlich gekoppelt‘ sind und sich mit Änderung der Außenweltzustände w‘ auch ’synchron‘ ändern. Die gemeinsam geteilte Außenwelt wird damit zur ‚Brücke‘ zwischen den körperlich getrennten individuellen Bewusstseinsräumen. Diese ‚ gemeinsam geteilte Außenwelt‘ nennt man oft den ‚intersubjektiven‘ Bereich der Welt bzw. dies stellt den Raum der ‚empirischen Welt‘ [Wemp] dar. Aus Sicht des individuellen Bewusstseins ist die empirische Welt eine Arbeitshypothese, die dem individuellen Bewusstsein zugänglich ist über eine spezifische Teilmenge [PHemp] der Bewusstseinszustände [PH].

EMPIRISCHE WELT ALS SONDE INS NICHTBEWUSSTSEIN

7. In der Geschichte des menschlichen Wissens spielt die Entdeckung der empirischen Welt und ihre systematische Untersuchung im Rahmen der modernen empirischen Wissenschaften bislang – nach meiner Meinung – die größte geistige Entdeckung und Revolution dar, die der menschliche Geist vollbracht hat. Auf den ersten Blick wirkt die Beschränkung der empirischen Wissenschaften auf die empirischen Phänomene PHemp wie eine unnötige ‚Einschränkung‘ und ‚Verarmung‘ des Denkens, da ja die Menge der bewussten Ereignisse PH erheblich größer ist als die Menge der empirischen Ereignisse PHemp. Wie der Gang der Geschichte aber gezeigt hat, war es gerade diese bewusste methodische Beschränkung, die uns den Bereich ‚außerhalb des Bewusstseins‘, den Bereich des ‚Nichtbewusstseins‘, Schritt für Schritt ‚erforscht‘ und ‚erklärt‘ hat. Trotz individuell stark eingeschränktem Bewusstsein konnte wir auf diese Weise so viel über die ‚Rahmenbedingungen‘ unseres individuellen Bewusstseins lernen, dass wir nicht mehr wie die früheren Philosophen ‚wie die Fliegen am Licht‘ an den Phänomenen des Bewusstseins kleben müssen, sondern wir können zunehmend Hypothesen darüber entwickeln, wie die verschiedenen Bewusstseinsphänomene (inklusive ihrer Dynamik) durch die Strukturen des Gehirns und des Körpers bestimmt sind. M.a.W. wir stehen vor dem Paradox, dass das individuelle Bewusstsein den Bereich des Nichtbewusstseins dadurch ‚verkleinern‘ kann, dass es durch Ausnutzung der empirischen Phänomene mittels gezielter Experimente und Modellbildung immer mehr Eigenschaften des Nichtbewusstseins innerhalb des individuellen Bewusstseins ’nachkonstruiert‘ und damit ‚bewusst‘ macht. Bedenkt man wie eng und schwierig die Rahmenbedingungen des menschlichen Bewusstseins bis heute sind, gleicht es einem kleinen Wunder, was dieses primitive menschliche Bewusstsein bislang nachkonstruierend erkennen konnte.

8. Von diesem Punkt aus ergeben sich viele Perspektiven.

BIOLOGISCHE EVOLUTION

9. Eine Perspektive ist jene der ‚evolutionären Entwicklungsgeschichte‘: seit gut hundert Jahren sind wir mehr und mehr in der Lage, unsere aktuellen Körper und Gehirne – zusammen mit allen anderen Lebensformen – als einen Gesamtprozess zu begreifen, der mit den ersten Zellen vor ca. 3.8 Milliarden Jahren als biologische Evolution begonnen hat, ein Prozess, der bis heute noch viele Fragen bereit hält, die noch nicht befriedigend beantwortet sind. Und der vor allem auch klar macht, dass wir heute keinen ‚Endpunkt‘ darstellen, sondern ein ‚Durchgangsstadium‘, dessen potentieller Endzustand ebenfalls nicht ganz klar ist.

10. Ein wichtiger Teilaspekt der biologischen Evolution ist, dass der Vererbungsmechanismus im Wechselspiel von Genotyp (ein Molekül als ‚Informationsträger‘ (Chromosom mit Genen)) und Phänotyp (Körper) im Rahmen einer Population eine ‚Strukturentwicklung‘ beinhaltet: die Informationen eines Informationsmoleküls (Chromosom) werden innerhalb des Wachstumsprozesses (Ontogenese) als ‚Bauplan‘ interpretiert, wie man welche Körper konstruiert. Sowohl bei der Erstellung des Informationsmoleküls wie auch bei seiner Übersetzung in einen Wachstumsprozess und dem Wachstumsprozess selbst kann und kommt es zu partiellen ‚Änderungen‘, die dazu führen, dass die resultierenden Phänotypen Änderungen aufweisen können (verschiedene Arten von Sehsystemen, Verdauungssystemen, Knochengerüsten, usw.).

11. Im Gesamtkontext der biologischen Evolution sind diese kontinuierlich stattfindenden partiellen Änderungen lebensentscheidend! Da sich die Erde seit ihrer Entstehung permanent geologisch, klimatisch und im Verbund mit dem Sonnensystem verändert, würden Lebensformen, die sich von sich aus nicht auch ändern würden, schon nach kürzester Zeit aussterben. Dies bedeutet, dass diese Fähigkeit zur permanenten strukturellen Änderung ein wesentliches Merkmal des Lebens auf dieser Erde darstellt. In einer groben Einteilung könnte man sagen, von den jeweils ’neuen‘ Phänotypen einer ‚Generation‘ wird die ‚große Masse‘ mehr oder weniger ‚unverändert‘ erscheinen; ein kleiner Teil wir Veränderungen aufweisen, die es diesen individuellen Systemen ’schwerer‘ macht als anderen, ihre Lebensprozesse zu unterstützen; ein anderer kleiner Teil wird Veränderungen aufweisen, die es ‚leichter‘ machen, die Lebensprozesse zu unterstützen. Letztere werden sich vermutlich proportional ‚mehr vermehren‘ als die beiden anderen Gruppen.

12. Wichtig an dieser Stelle ist, dass zum Zeitpunkt der Änderungen ’niemand‘ weiß bzw. wissen kann, wie sich die ‚Änderung‘ – bzw. auch die Nicht-Änderung! – im weiteren Verlauf auswirken wird. Erst der weitergehende Gesamtprozess wird enthüllen, wie sich die verschiedenen Strukturen von Leben bewähren werden.

LEBENSNOTWENDIGE KREATIVITÄT: WOLLEN WIR SIE EINSPERREN?

13. Übertragen auf unsere heutige Zeit und unser Weltbild bedeutet dies, dass wir dieser Veränderlichkeit der Lebensformen immer Rechnung tragen sollten, um unsere Überlebensfähigkeit zu sichern. Zum Zeitpunkt einer Änderung – also jetzt und hier und heute – weiß niemand, welche dieser Änderungen morgen vielleicht wichtig sein werden, zumal Änderungen sich erst nach vielen Generationen auszuwirken beginnen.

14. Es wäre eine eigene große Untersuchung wert, zu schauen, wie wir heute in der Breite des Lebens mit den stattfindenden Änderungen umgehen. In der Agrarindustrie gibt es starke Tendenzen, die Vielzahl einzugrenzen und wenige Arten so zu monopolisieren, dass einzelne (ein einziger!) Konzern die Kontrolle weltweit über die genetischen Informationen bekommt (was in den USA z.T. schon zur Verödung ganzer Landstriche geführt hat, da das Unkraut sich schneller und effektiver geändert hat als die Laborprodukte dieser Firma).

STRUKTURELLES UND FUNKTIONALES LERNEN

15. Die ‚Struktur‘ des Phänotyps ist aber nur die eine Seite; genauso wenig wie die Hardware alleine einen funktionierenden Computer definiert, so reicht die Anordnung der Zellen als solche nicht aus, um eine funktionierende biologische Lebensform zu definieren. Im Computer ist es die Fähigkeit, die elektrischen Zustände der Hardware kontinuierlich zu verändern, dazu verknüpft mit einer impliziten ‚Schaltlogik‘. Die Menge dieser Veränderungen zeigt sich als ‚funktionaler Zusammenhang‘ phi_c:I —> O, der ‚Inputereignisse‘ [I] mit Outputereignissen [O] verknüpft. Ganz analog verhält es sich mit den Zellen in einem biologischen System. Auch hier gibt es eine implizite ‚Logik‘ nach der sich die Zellen verändern und Zustände ‚kommunizieren‘ können, so dass Zellgruppen, Zellverbände eine Vielzahl von funktionellen Zusammenhängen realisieren. Einige dieser funktionellen Zusammenhänge bezeichnen wir als ‚Lernen‘. Dies bedeutet, es gibt nicht nur die über Generationen laufenden Strukturveränderung, die eine Form von ’strukturellem Lernen‘ im Bereich der ganzen Population darstellen, sondern es gibt dann dieses ‚funktionelle Lernen‘, das sich im Bereich des individuellen Verhaltens innerhalb einer individuellen Lebenszeit ereignet.

WISSEN GARANTIERT KEINE WAHRHEIT

16. Dieses individuelle Lernen führt zum Aufbau ‚individueller Wissensstrukturen‘ mit unterschiedlichen Ausprägungsformen: Erlernen von motorischen Abläufen, von Objektkonzepten, Beziehungen, Sprachen, Verhaltensregeln usw. Wichtig ist dabei, dass diese individuellen Wissensstrukturen im individuellen Bewusstsein und individuellem Unterbewusstsein (ein Teil des Nichtbewusstseins, der im individuellen Körper verortet ist) verankert sind. Hier wirken sie als kontinuierliche ‚Kommentare‘ aus dem Unterbewusstsein in das Bewusstsein bei der ‚Interpretation der Bewusstseinsinhalte‘. Solange diese Kommentare ‚richtig‘ / ‚passend‘ / ‚wahr‘ … sind, solange helfen sie, sich in der unterstellten Außenwelt zurecht zu finden. Sind diese Wissensstrukturen ‚falsch‘ / ‚verzerrt‘ / ‚unangemessen‘ … bewirken sie in ihrer Dauerkommentierung, dass es zu Fehleinschätzungen und zu unangemessenen Entscheidungen kommt. Sofern man als einziger eine ‚unpassende Einschätzung‘ vertritt, fällt dies schnell auf und man hat eine Chance, diese zu ‚korrigieren‘; wird aber eine ‚Fehleinschätzung‘ von einer Mehrheit geteilt, ist es schwer bis unmöglich, diese Fehleinschätzung als einzelner zu bemerken. In einer solchen Situation, wo die Mehrheit eine Fehleinschätzung vertritt, kann ein einzelner, der die ‚richtige‘ Meinung hat (z.B. Galilei und Co. mit der neuen Ansicht zur Bewegung der Sonne; die moderne Wissenschaft und die alten Religionen; das damalige südafrikanische Apartheidsregime und der damalige ANC, der Sowjetkommunismus und die östlichen Friedensbewegungen vor dem Auseinanderfallen der Sowjetunion; die US-Geheimdienste und Snowden; …) als der ‚Fremdartige‘ erscheinen, der die bisherige ‚Ordnung‘ stört und den man deshalb ‚gesellschaftlich neutralisieren‘ muss).

17. Viele Menschen kennen das Phänomen von ‚Phobien‘ (vor Schlangen, vor Spinnen, vor …). Obwohl klar ist, dass eine einzelne Spinne keinerlei Gefahr darstellt, kann diese einen Menschen mit einer Phobie (= Kommentar des individuellen Unterbewusstseins an das Bewusstsein) zu einem Verhalten bewegen, was die meisten anderen als ‚unangemessen‘ bezeichnen würden.

18. Im Falle von psychischen Störungen (die heute statistisch stark zunehmen) kann dies eine Vielzahl von Phänomenen sein, die aus dem Raum des individuellen Unterbewusstseins in das individuelle Bewusstsein ‚hinein reden‘. Für den betroffenen Menschen ist dieses ‚Hineinreden‘ meistens nicht direkt ‚verstehbar‘; es findet einfach statt und kann vielfach kognitiv verwirren und emotional belasten. Diese Art von ‚Fehlkommentierung‘ aus dem individuellen Unterbewusstsein ist – so scheint es – für die meisten Menschen vielfach nur ‚behebbar‘ (therapierbar) mit Hilfe eines Experten und einer geeigneten Umgebung. Während Menschen mit körperlichen Einschränkungen in der Regel trotzdem ein einigermaßen ’normales‘ Leben führen können, können Menschen mit ‚psychischen Störungen‘ dies oft nicht mehr. Das geringe Verständnis einer Gesellschaft für Menschen mit psychischen Störungen ist auffällig.

SPRACHE ALS MEDIUM VON GEDANKEN

19. Seit der Entwicklung der ‚Sprache‘ kann ein individuelles Bewusstsein unter Voraussetzung einer einigermaßen ähnlichen Wahrnehmungs- und Gedächtnisstruktur in den einzelnen Mitgliedern einer Population Bewusstseinsinhalte aufgrund von Gedächtnisstrukturen mit Ausdrücken einer Sprache korrelieren. Sofern diese Korrelierung in hinreichender Abstimmung mit den anderen Sprachteilnehmern geschieht, lassen sich mittels sprachlicher Ausdrücke diese ‚Inhalte‘ (‚Bedeutungen‘) ‚indirekt‘ kommunizieren; nicht der Inhalt selbst wird kommuniziert, sondern der sprachliche Ausdruck als eine Art ‚Kode‘, der im Empfänger über die ‚gelernte Bedeutungszuordnung‘ entsprechende ‚Inhalte des Gedächtnisses‘ ‚aktiviert‘. Dass diese Kodierung überhaupt funktioniert liegt daran, dass die Bedeutungsstrukturen nicht ‚1-zu-1‘ kodiert werden, sondern immer nur über ‚verallgemeinerte Strukturen‘ (Kategorien), die eine gewisse ‚Invarianz‘ gegenüber den Variationen der konstituierenden Bedeutungselemente aufweisen. Dennoch sind die Grenzen sprachlicher Kommunikation immer dann erreicht, wenn Sprecher-Hörer über Bewusstseinstatsachen kommunizieren, die nur einen geringen oder gar keinen Bezug zur empirischen Welt aufweisen. Die Benutzung von Analogien,Metaphern, Bildern, Beispielen usw. lässt noch ‚irgendwie erahnen‘, was jemand ‚meinen könnte‘, aber eine letzte Klärung muss oft ausbleiben. Nichtsdestotrotz kann eine solche ‚andeutende‘ Kommunikation sehr hilfreich, schön, anregend usw. sein; sie ersetzt aber keine Wissenschaft.

20. Während das individuelle Wissen mit dem Tod des Individuums bislang ‚verschwindet‘, können ‚Texte‘ (und vergleichbare Darstellungen) ein individuelles Wissen bis zu einem gewissen Grade überdauern. Moderne Kommunikations- und Speichermittel haben die Sammlung und Verwertung von Wissen in bislang ungeahnte Dimensionen voran getrieben. Während allerdings die Menge dieses sprachbasierten Wissens exponentiell wächst, bleiben die individuellen Wissensverarbeitungskapazitäten annähernd konstant. Damit wächst die Kluft zwischen dem individuell verfügbaren Wissen und dem in Datennetzen verfügbaren Wissen ebenfalls exponentiell an. Es stellt sich die Frage, welchen Beitrag ein Wissen leisten kann, das sich faktisch nicht mehr verarbeiten lässt. Wenn man sieht, dass heute selbst Menschen mit einem abgeschlossenen Studium Ansichten vertreten, die im Lichte des verfügbaren Wissens gravierend falsch sein können, ja, dass das Wesen von Wissenschaft, wissenschaftlichem Wissen selbst bei Studierten (und nicht zuletzt auch bei sogenannten ‚Kulturschaffenden‘) starke Defizite aufweist, dann kann man ins Grübeln kommen, ob unsere heutige Kultur im Umgang mit wissenschaftlichem Wissen die richtigen Formen gefunden hat.

21. Hier wäre jetzt auch noch der ganze Komplex der Bedürfnisse/ Emotionen/ Gefühle/ Stimmungen anzusprechen. Doch das soll weiteren Einträgen vorbehalten bleiben.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.