KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen

Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen

Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen

Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

DAS WAS MENSCHSEIN AUSMACHT. Eine Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 8.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

  1. Während der Auseinandersetzung mit dem Buch von Edelman gab es unterschiedliche Wechselwirkungen mit anderen gedanklichen Prozessen. Ein Thema hier ist eine mögliche grundlegende Typologie von ‚Intelligenz‘.

  2. Vorab müsste man das Verhältnis des Begriffs ‚Intelligenz‘ zu Begriffen wie ‚Lernen‘, ‚Bewusstsein‘, ‚Geist‘ und ‚Gehirn‘ klären. Hier nur soviel, dass alle diese Begriffe ein ‚Gehirn‘ – oder eine vergleichbare materielle Struktur – zum Funktionieren voraussetzen. Allerdings kann das bloße Vorhandensein solcher materieller Strukturen nicht garantieren, dass es dann auch so etwas wie ‚Geist‘, ‚Bewusstsein‘, ‚Lernen‘ und ‚Intelligenz‘ gibt.

  3. Der Begriff ‚Geist‘ wird im Englischen als ‚mind‘ gerne und oft benutzt, um Besonderheiten im Verhalten des Homo sapiens zu ‚markieren‘. Allerdings ist dieser Begriff sehr diffus und bislang in keiner Theorie hinreichend erklärt.

  4. Meistens werden die Begriffe ‚Bewusstsein‘ und ‚Geist‘ sehr ähnlich benutzt, ohne dass deren Beziehung zueinander – wegen einer fehlenden Theorie – letztlich klar ist. Da unser ‚Zugang‘ zum Phänomen ‚Geist‘ irgendwie über das beobachtbare Verhalten und das ‚Bewusstsein‘ läuft, ist der Begriff ‚Geist‘ eher ein theoretischer Begriff innerhalb einer Theorie, die man auf der Basis von Bewusstseinsdaten formulieren würde. Mit dem Begriff ‚Bewusstsein‘ wäre dies ähnlich: würden wir alle erreichbaren Daten aus der 1.Person und 3.Person Perspektive sammeln, könnten wir eine Theorie bauen, die den theoretischen Term ‚Bewusstsein‘ enthält und damit indirekt ‚erklärt‘. Paradox würde es, weil der Begriff ‚Bewusstsein‘ dann nicht nur eine theoretische Beschreibung ‚von etwas‘ wäre, also einen ‚Gegenstand‘ der Beschreibung bilden würde, sondern zugleich auch den ‚Autor‘ der ‚Beschreibung‘ repräsentieren würde, allerdings nur indirekt. Der so theoretisch beschriebene ‚Gegenstand Bewusstsein‘ würde wesentliche Eigenschaften nicht enthalten. Für diesen Fall eines ‚Gegenstandes‘ der zugleich ‚Autor‘ ist gibt es bislang keinen akzeptierten Theoriebegriff.

  5. Der ‚wissenschaftliche Intelligenzbegriff‘ orientiert sich am beobachtbaren Verhalten und definierten Referenzpunkten. Dieses Verfahren wurde seit gut 100 Jahren auf den Homo sapiens angewendet und dann auf viele andere biologische Systeme verschieden vom Homo sapiens. Man könnte grob von ‚Menschlicher Intelligenz‘ sprechen und von ‚Tierischer Intelligenz‘ mit vielen Überschneidungen.

  6. Daneben gibt es heute eine ‚Maschinelle Intelligenz‘, die bislang aber in keiner allgemein akzeptierten Form beschrieben und untersucht wird. Die Beziehung zur ‚menschlichen‘ und ‚tierischen‘ Intelligenz wurde bislang nicht systematisch untersucht.

  7. Im Alltag, in den Medien, in der Kunst gib es eine ‚fiktive Intelligenz‘, der man nahezu alles zutraut, ohne dass klar ist, ob dies wirklich möglich ist. Die ‚fiktive Intelligenz‘ ist gleichsam eine Art ‚Sammelpunkt‘ aller Projektionen von dem, was Menschen sich unter ‚Intelligenz‘ vorstellen können.

  8. Durch die Koexistenz von Menschen und neuer Informations-Technologie kann es zu einer neuen ‚hybriden Intelligenz‘ kommen, in der menschliche und maschinelle Intelligenz auf neue Weise symbiotisch zusammen wirken. Dazu gibt es bislang kaum Forschungen; stattdessen versucht man, die maschinelle Intelligenz möglichst unabhängig vom Menschen und oft in Konkurrenz und im Gegensatz zu ihm zu entwickeln. Zugleich verbleibt die Forschung zur menschlichen Intelligenz auf niedrigem Niveau; viele – die meisten? – wichtigen Eigenschaften sind weiterhin unerforscht. Beides zusammen blockiert die Entwicklung von wirklich starken, neuen Intelligenzformen.

  9. Durch die ungelöste Paradoxie von zugleich ‚Gegenstand‘ und ‚Autor‘ bleiben viele wichtige, vielleicht die wichtigsten, Eigenschaften menschlicher Intelligenz im Verborgenen. Es gibt hier einen Erkenntnismäßigen ‚blinden Fleck‘ der nur sehr schwer aufzulösen ist.

  10. Wenn man sieht, wie in vielen Ländern dieser Erde, auch in jenen, in denen man glaubte, viele ‚primitive‘ Sichten zur Welt, zum Leben, zum Menschen überwunden zu haben, große Teile der Bevölkerung und der politischen Leitinstitutionen wieder in solche ‚primitiveren‘ Sichten und Verhaltensweisen zurückfallen und darin zunehmend Anhänger finden, dann kann man dies als Indikator dafür nehmen, dass differenziertere, komplexere Sichten des Lebens und die dazu gehörigen Verhaltenskomplexe keine Automatismen darstellen. Nur weil jemand, eine Gruppe, eine Population zu einer bestimmten Zeit einmal eine ‚Einsicht‘ hatte, ein aus dieser Einsicht resultierendes ‚praktisches Lebenskonzept umgesetzt hat‘, folgt nicht automatisch, dass diese Einsicht in den Individuen der Population ‚am Leben bleibt‘. Die Struktur und Dynamik eines einzelnen Homo-sapiens-Exemplars ist von solch einer Komplexität, dass nur maximale Anstrengungen dieses Potential an Freiheit zu einer ‚konstruktiven Lebensweise‘ motivieren können. Dabei ist das Wort ‚motivieren‘ wichtig. Im Homo sapiens kulminiert die ‚Freiheit‘, die sich in der Materie und Struktur des gesamten Universums samt den biologischen Strukturen grundlegend findet, zu einem vorläufigen ‚Optimum‘, das sich jeder vollständigen ‚Verrechnung‘ in fixierte Strukturen widersetzt. Man kann einen Homo sapiens einsperren, töten, mit Drogen willenlos machen, durch Entzug von materiellen Möglichkeiten seiner Realisierungsbasis berauben, durch falsche Informationen und Bildungen fehlleiten, man kann aber seine grundlegende Freiheit, etwas ‚Anderes‘, etwas ‚Neues‘ zu tun, dadurch nicht grundlegend aufheben. In der Freiheit jedes einzelnen Homo sapiens lebt potentiell die mögliche Zukunft des gesamten Universums weiter. Ein unfassbarer Reichtum. Die größte Lüge und das größte Verbrehen an der Menschlichkeit und am Leben überhaupt ist daher genau diese grundlegende Eigenschaft des Homo sapiens zu verleugnen und zu verhindern.

  11. Natürlich hat der Homo sapiens noch weitere grundlegende Eigenschaften über die zu sprechen gut tun würde.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DUMMHEIT – INTELLIGENZ -MENSCHENWÜRDE. Gefährliche Tabus. Eine Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 4.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

IDEE

‚Intelligenz’ ist in aller Munde … was ist mit ’Dummheit’? Kollidiert ein Reden über Dummheit mit ’Menschenwürde’? Globalisierung frag nur nach Leistungsfähigkeit …

I. KÜNSTLICHE INTELLIGENZ SCHEINT ZU GEHEN …

Spätestens seit der Cebit 2016 ist das Wort von der ’künstlichen Intelligenz’ in Deutschland gesellschaftsfähig geworden. Plötzlich ist vieles ’intelligent’ oder ’smart’ und im Rausch der Worte fällt oft gar nicht mehr auf, dass die Bedeutung von ’Intelligenz’ seitdem eher noch unklarer ist als vorher. Wenn plötzlich alles ’smart’ genannt wird, was nur die leisesten Zuckungen zeigt, und jeder über smarte,intelligente Dinge reden kann ohne erklären zu müssen, woher er sein Wissen hat, dann ist der Zustand eines ’fake Wissens’, eines ‚vorgetäuschten Wissens‘, potentiell nicht mehr weit. Es fällt auch kaum auf, dass diese Inflation des Redens über ’Intelligenz’ ausgelöst wurde durch Technologie, durch Geräte, durch Maschinen. Über die Intelligenz von Menschen zu reden ist bislang genau so verpönt wie früher; über die Intelligenz von Maschinen zu reden gilt als ’chic’, man ist ’in’. Von intelligenten Menschen zu sprechen ist eher ’un-chic’.

Dies hält viele nicht davon ab, dem Menschen zumindest die notwendige Intelligenz für die Zukunft von vornherein abzusprechen. Im Kontext von Maschinen, denen man bereitwillig ’Smartheit’, ’Intelligenz’ zu spricht ohne dass es einen klaren Intelligenzbegriff gibt, sind erstaunlich viele Menschen bereit, dem Menschen im Vergleich zu Maschinen jene notwendige Intelligenz abzusprechen, von der man glaubt, dass diese für die Bewältigung der Zukunft notwendig sei.

II. WISSENSVERMITTLUNG KONKRET …

Szenewechsel: seit  Herbst 2001 hatte (und habe) ich Gelegenheit, als Hochschullehrer an einer Hochschule für angewandte Wissenschaften zu unterrichte, die offiziell Studierende aus mehr als100 verschiedene Nationen hat. Im Laufe der Jahre konnte ich zu 10 verschiedenen Sachgebieten unterrichten, in kleinen Gruppen von 5-7 bis hin zu größeren Gruppen von 150 und mehr. Es gab viele verschiedene Formate von klassischer Vorlesung bis hin zu unterschiedlichen Seminarformen, Projektarbeiten, und Abschlussarbeiten in Form von Diplom, Bachelor- und Masterthesen; in vielen Fällen gab es auch Abfolgen von interdisziplinären Projekten, die sich über drei Semester erstreckten (ein ’Semester’ in Hessen dauert z.B. von April bis Juli oder von Oktober bis Februar). Seit 2005 überwog das forschende Lernen organisiert in Projektteams, meistens sogar als interdisziplinäre Projektteams (Studierende aus mindestens zwei verschiedenen Fachbereichen, meistens drei bis vier verschiedenen) im Rahmen von Master-Studiengängen. Bei den interdisziplinären Veranstaltungen unterrichtete man zudem in Teams von drei ProfessorenInnen aus drei verschiedenen Fachbereichen.

Wenngleich bei allen diesen Veranstaltungen das ’Entstehen von Wissen, Erfahrungen und Kompetenzen’ im Studierenden im Vordergrund steht, verlangt das System Hochschule eine belastbare Überprüfung des erworbene Wissens und der erworbenen Fähigkeiten am Ende eines jeden Semesters. Dies ist zwar bei allen Beteiligten unbeliebt (auch bei den Prüfenden), erscheint aber notwendig, will man eine verlässliche Rückkopplung darüber haben, welche ’Wirkungen’ denn das Geschehen in einem Semester in einem überprüfbaren Sinn auf die Studierenden hatte. Dies ist für die Studierenden wichtig, um eine Rückmeldung zu bekommen, wie das, was sie von sich zeigen, von ihrer Umwelt wahrgenommen wird; für die Lehrenden, dass sie ein Gefühl dafür bekommen können, wie ihre Aktivitäten sich auswirken; und letztlich für die Institution Studiengang/ Fachbereich/ Hochschule, ob sie dem Bedarf jener Gesellschaft gerecht wird, für die sie diese ’Bildungsprozesse’ organisiert.

Obwohl es unterschiedliche Prüfungsformen gibt (mündlich, schriftlich, Projekt-Präsentationen, wissenschaftlichen Artikel schreiben, kumulative Übungen, usw., dazu verschiedene Kombinationen davon (z.B. Projektarbeit mit Präsentation, begleitend dazu einen wissenschaftlichen Artikel schreiben, und ein individuelles Gespräch am Schluss), dazu mindestens jeweils zwei Prüfer, bisweilen mehr), ist jede Prüfung im Kern ein ’Messvorgang’: ein zu Prüfendes wird mit einem zuvor vereinbarten Standard verglichen. In der Physik vertraute Standards sind z.B. ’1 Meter’, ’1 Kilogramm’, ’1 Sekunde’ usw. und man vergleicht die zu vermessende Objekte mit diesen Standards, um sich zu vergewissern, ’wie räumlich ausgedehnt’, ’wie schwer’, wie ’zeitlich ausgedehnt’ das zu vermessende Objekt ist. Im Fall von Prüfungen im Rahmen der Lehre verlangt das Gesetz, dass man nur Prüfungsformen benutzt, die zuvor von der Institution vereinbart wurden. Dazu gehören auch vorgeschriebene Formen der Protokollierung des Prüfungsgeschehens.

Bei der Angabe jener Standards, die im Bereich von Hochschulen relevant sind, wird es schon bei der Formulierung der Standards schwierig, da es sich bei der Vermittlung wissenschaftlichen Wissens und der zugehörigen wissenschaftlichen Praxis nicht nur grundsätzlich um komplexe Sachverhalte handelt,sondern auch um Strukturen und Inhalte, die sich im Laufe der Jahre verändern können und real z.T. sehr schnell ändern. Dies führt einmal zum Problem der Aktualität der Kompetenzen von Hochschullehrern –wie können diese sich ’auf dem Laufenden’ halten – wie auch zum Problem, wie man solche dynamischen komplexen Strukturen und Inhalte jedes Semester neu so ’verpacken’, ’anordnen’, ’organisieren’ kann, dass Studierende eine faire Chance haben, diese Inhalte, Praktiken und Kompetenzen ’in sich selbst’ so ‚organisieren’ zu können, das sie diese dann ’selbständig’ und zusammen mit anderen bei entsprechenden Aufgabenstellungen ’angemessen’ ’anwenden’ können. Die hierzu notwendigen vielfältigen Wissens- und Erfahrungs-Transferleistungen einmal großzügig eingeschlossen.

Die gesetzlichen Vorschriften zur Überprüfbarkeit von Prüfungsleistungen (Was war der Standard?Wie wurde er gemessen? Ist das Leistungsmaß angemessen? …) im Verbund mit einem starken Anstieg von juristischen Klagen von Studierenden, die mit Prüfungsleistungen nicht einverstanden sind, führt tendenziell dazu, dass extrem vereinfachte Prüfungsformen favorisiert werden, die juristisch schwer angreifbar sind, aber rein sachlich mit dem offiziell zu vermittelnden Wissen, Fähigkeiten und Kompetenzen nur noch wenig zu tun haben. Diese Form der Leistungsüberprüfung nützt niemandem, sie schadet vielmehr  objektiv allen Beteiligten: die Studierenden bekommen keine fairen und brauchbaren Rückmeldungen mehr; die Lehrenden können mit diesen Rückmeldungen nahezu nichts darüber erfahren, ob ihre Weise der Lehre ’gut’ ist; und die Gesellschaft bekommt Absolventen, die zu einem hohen Grade möglicherweise genau das nicht können, was die Gesellschaft dringend bräuchte.

III. DUMMHEIT …

Während die empirische Psychologie seit mehr als 100 Jahren zum Thema ’Intelligenz’ viele interessante und sehr brauchbare Beiträge geleistet hat (die in der Mainstream-Diskussion zur künstlichen Intelligenz bislang aber keinen Eingang gefunden haben), gibt es zum Begriff ’Dummheit’ so gut wie nichts. Auch scheinen diese Begriffe ’gesellschaftlich’ nicht neutral zu sein. Sagt man von einem Menschen, er sei ’intelligent’, wird dies eher als etwas ’Positives’ aufgefasst; nennt man einen Menschen dagegen ’dumm’ wird dies sogleich als ’abwertend’, ’negativ’, ja, geradezu als beleidigend aufgefasst.Darüber spricht man nicht. Man könnte dies eine ’Tabuisierung’ nennen, eine, die extrem gefährlich ist.

Mich hat das Thema ’Dummheit’ eigentlich nie besonders interessiert.

Seitdem ich unterrichten durfte und mit dem Thema ’Prüfungen’ konfrontiert wurde, wandelte sich dies. Lässt man mal alle Details zu der Komplexität von Lehrinhalten, Lehrformen und verschiedenen Prüfungsformen beiseite, dann reproduziert sich mit jedem Semester folgender Sachverhalt: (i)während des Semesters werden die Studierenden mit unterschiedlichen Wissensinhalten, Methoden, Situationen und Vorgehensweisen konfrontiert. (ii) Ein Teil der Studierenden greift diese Anregungen auf, experimentiert damit herum, stellen eigene Experimente an, recherchieren auf eigene Faust, machen sich ihre eigenen Gedanken, stellen ständig Fragen, und am Schluss können sie nicht nur die vorgestellten Inhalte, Methoden etc. verständlich beschreiben, sondern sie überraschen mit eigenen Weiterentwicklungen, eigenen neuen Gedanken als Reaktion auf das Vorgestellte. Dies alles dazu  in lebendigem Austausch innerhalb eines selbst organisierten Team. (iii) Ein anderer Teil der Studierenden zeigt wenig Reaktionen, ist oft nicht da (es gibt keine Anwesenheitspflicht laut Gesetz), stellt praktisch nie Fragen, lässt wenig Eigenproduktion erkennen.Darauf angesprochen, lassen sich wenige Reaktionen erkennen. Bisweilen kommen doch Fragen zu einzelnen Sachverhalten; diese werden durchgesprochen, erklärt; und nach einiger Zeit werden die gleichen Fragen wieder gestellt; ich beantworte auch diese Fragen ausführlich, auch noch ein weiteres Mal …. Am Schluss sind diese Studierenden nicht in der Lage, die wesentlichen Inhalte/ Vorgehensweisen… angemessen zu beschreiben; sie haben keine eigene Ideen oder, wenn sie welche haben, passen sie kaum zusammen mit den eingeführten Normen und Methoden, die es anzuwenden gilt; Probleme, die zuvor mehrfach durch diskutiert wurden, werden trotz aller Diskussionen genauso vorgetragen, wie sie gerade nicht behandelt werden sollten (nach zuvor vereinbarten Sachverhalten/ Normen…). Positionen aus der wissenschaftlichen Literatur werden trotz vielfacher Beispiele und Anregungen nicht wahrgenommen. (iv) Zwischen dem Typ (ii) und (iii) gibt es natürlich viele fließende Übergänge, aber Typ(ii) und (iii) sind real in jedem Semester erlebbar.

Würde ich als Lehrender nur den Typ (iii) erleben, würde ich vermutlich sehr bald an mir selbst zweifeln, ob ich letztlich alles ’falsch’ mache. Da es aber – zum Glück – bislang immer auch Typ (ii)Studierende gab und gibt, weiß ich, dass das ’Ergebnis’ am Ende des Semesters nur z.T. von mir als Lehrendem abhängt. Mein eigenes Verhalten X erzeugt bei Typ (ii) Studierenden ein X ii -Ergebnis, und bei den Typ (iii) Studierenden ein X iii -Ergebnis, mit allen möglichen Mischformen dazwischen. Ob meine Lehre wegen den X ii -Ergebnissen automatisch als ’gut’ bezeichnet werden kann, folgt aus diesem Sachverhalt nicht notwendigerweise. Man könnte die Position vertreten, dass Typ (ii) Studierende immer gute Ergebnisse abliefern, egal wie gut oder schlecht ein Lehrender ist, und entsprechend, dass Typ (iii) Studierende immer schlechte Ergebnisse abliefern, unabhängig vom Lehrenden.

Bei solchen Themen, die man über viele Semester mit unterschiedlichen Studierendengruppen unterrichten konnte (ich habe ein Thema, das konnte ich 26 Semester unterrichten, abwechselnd mit deutschen und englischen Kursen und Studierenden aus vielen Nationen) kann man Inhalte und Formen variieren (zeitweilig konnte ich das Fach auch im Duo zusammen mit einer frisch gebackenen Doktorandin unterrichten). An der grundsätzlichen Situation hat sich nie etwas geändert.

Vor diesem Hintergrund habe ich dann mal die Arbeitshypothese formuliert, dass das Verhalten der Typ (ii) Studierenden möglicherweise mit ’Lernfähigkeit’ und ’Intelligenz’ assoziiert werden kann (ohne dass diese Begriffe dadurch schon ausreichend definiert wären), und das Verhalten der Typ (iii) Studierenden eben mit einer ’mangelnden Lernfähigkeit’ und einer ’kaum erkennbaren Intelligenz’. Diese Kombination aus ’mangelnder Lernfähigkeit’ und ’kaum erkennbaren Intelligenz’ würde ich dann versuchsweise mal mit dem begriff ’Dummheit’ assoziieren, ohne dass dies schon alles ’definieren’ würde. ’Dummheit’ wäre dann eine beobachtbare und reproduzierbare Verhaltenseigenschaft, die darauf hinweist, dass eine Person, die solch ein Verhalten zeigt, nicht oder nur sehr begrenzt in der Lage ist, aus ihrer Wahrnehmung von der Welt jene Schlüsse zu ziehen, jenes eigenes Verhalten zu motivieren, durch das sie in ihrem Verstehen von Welt, von den anderen, von sich selbst, zu neuen Einsichten und zu neuen lebenserweiternden Verhalten kommen könnte.

’Dumme’ Menschen wären also solche, die in ihrer Wahrnehmung, in ihrem Denken, in ihrem Verhalten tendenziell ’verharren’, obgleich die Welt um sie herum sich in ständiger Bewegung befindet.

IV. MENSCHEN WÜRDE

Auf den ersten Blick mag es weit hergeholt erscheinen, die Diskussion um Typ-ii intelligente Studierende und um Typ-iii dumme Studierende in einen Zusammenhang mit dem Grundgesetz der Bundesrepublik Deutschland zu bringen, und hier mit dem Art 1. (1), in dem es heißt, dass die Würde des Menschen unantastbar ist. Sie zu achten und zu schützen ist Verpflichtung aller staatlichen Gewalt.Diese Position von der Würde des Menschen als unantastbarem höchsten Gut betrachte ich persönlich als eine (oder die?) größte Errungenschaft der europäischen Aufklärung (nicht der christlichen Kirchen!). Aber gerade dann, wenn man dies tut, zugleich aber die empirische Realität zur Kenntnis nehmen muss, dass es tatsächlich ’dumme’ und ’intelligente’ Menschen gibt, und dass die ’dummen’ Menschen viele wichtige Aufgaben in der Gesellschaft und in der Wirtschaft nur begrenzt erfüllen können, muss man sich die Frage stellen, wie die Gesellschaft mit diesem Sachverhalt umgeht: Wenn ich einen Menschen als Menschen ernst nehme, seine Würde achten will, zugleich aber sehe, er kann wichtige Aufgaben nicht genügend erfüllen, wie gehe ich dann damit um? Offensichtlich brauchen wir über die rein sachlich-funktionalen Kriterien hinaus eine Art der gegenseitigen Wertschätzung, die unabhängig von der funktionalen Leistungsfähigkeit ist, wobei wir diese Leistungsfähigkeit aber lebensnotwendig brauchen! Wenn Deutschland nicht mehr in der Lage ist, Flughäfen, Verkehrssysteme, Energiesysteme, Ausbildungssysteme usw. mit der notwendigen Qualität in akzeptabler Zeit zu bezahlbaren Preisen zu bauen bzw. zu betreiben, dann werden wir alle zusammen zu einem Absteigerland degenerieren, dem dann alle Ressourcen fehlen werden, sich da wieder heraus zu schaffen.

Neben dem Aspekt Dummheit/ Intelligenz kann man natürlich auch beobachten, dass scheinbar ’intelligente’ Menschen aufgrund ihrer emotionalen Struktur viel Schaden anrichten können. Das wäre ein anderes Thema.

V. GLOBALISIERUNG …

Während wir uns in Deutschland noch an unseren aktuellen wirtschaftlichen Erfolgen berauschen, gerät ein wenig aus dem Blick, dass ein Land wie China Deutschland mittlerweile in vielen Bereichen von Leistungsfähigkeit bei weitem übertrifft, und in den  wenigen Bereiche, wo dies noch nicht der Fall ist, ist es nur mehr eine Frage von wenigen Jahren, bis dies der Fall sein wird.

Während China weltweit einen radikalen Kampf um Steigerung seiner Leistungsfähigkeit in Ausbildung, Forschung und industrieller Leistung führt, baut Deutschland zur gleichen Zeit seine Qualität in Ausbildung, Forschung, Technologieentwicklung und Infrastrukturen dramatisch ab. Mit Kosteneinsparungen lässt sich nun mal keine Qualität erzeugen. Auf Dauer entscheidet aber immer nur die Qualität! Der schieren Zahl der Ingenieure in China und ihrer wachsenden Qualität hat Deutschland in seinem aktuellen Betriebsmodus auf Dauer wenig entgegen zusetzen. … ein Thema mit sehr vielen Aspekten…

VI. WEITERE LEKTÜRE

Erste interessante weitere Lektürehinweise finden sich in der Deutschen Wikipedia zu ’Dummheit’ und in der Englischen Wikipedia zu ’Stupidity’. Systemtheoretisch interessant und vermutlich weiter entwickelbar sind die Thesen von Carlo M. Cipolla, Professor für Wirtschaftswissenschaften, Universität von Kalifornien in Berkeley, mit dem Titel ” The Basic Laws of Human Stupidity”, abgedruckt in der Zeitschrift ”Whole Earth Review”, Frühjahr 1987 (http://www.extremistvector.com/content/stupid.html). Dazu auch der Wikipediaeintrag-EN zu Cipolla (https://en.wikipedia.org/wiki/Carlo M. Cipolla).

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

KÜNSTLICHE INTELLIGENZ (KI) – CHRISTLICHE THEOLOGIE – GOTTESGLAUBE. Ein paar Gedanken

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
24.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG

Der folgende Text wurde im September in einer christlichen Zeitschrift veröffentlicht [*]. Es war (und ist) ein ‚experimenteller Text‘, bei dem ich versucht habe, auszuloten, was gedanklich passiert, wenn man die beiden Themenkreise ‚Glaube an Gott im   Format christlicher Theologie‘ mit dem Themenkreis ‚Künstliche Intelligenz‘ zusammen führt. Das Ergebnis kann überraschen, muss aber nicht. Dieser ganze Blog ringt von Anbeginn um das Verhältnis von Philosophie, Wissenschaft (mit Technologie) und dem Phänomen der Spiritualität als Menschheitsphänomen, und die christliche Sicht der Dinge (die in sich ja keinesfalls einheitlich ist), ist nur eine Deutung von Welt unter vielen anderen. Wer die Einträge dieses Blogs durch mustert (siehe Überblick) wird feststellen, dass es sehr viele Beiträge gibt, die um die Frage nach Gott im Lichte der verfügbaren Welterfahrung kreisen. Die aktuelle Diskussion von W.T.Stace’s Buch ‚Religion and the Modern Mind‘ (Beginn mit Teil 1 HIER) setzt sich auch wieder   mit dieser Frage auseinander.

INHALT BEITRAG

Im Alltag begegnen wir schon heute vielfältigen Formen von Künstlicher Intelligenz. Bisweilen zeigt sie sehr menschenähnliche Züge. In Filmen werden uns Szenarien vorgeführt, in denen Superintelligenzen zukünftig die Herrschaft über uns Menschen übernehmen wollen. Wie verträgt sich dies mit unserem Menschen-und Gottesbild? Macht Glauben an Gott dann noch Sinn?

I. KI IST SCHON DA …

Vielen Menschen ist gar nicht bewusst, wo sie im Alltag schon mit Programmen der Künstlichen Intelligenz (KI) zu tun haben. Schaut man sich aber um, wird man entdecken, dass Sie scheinbar schon überall am Werk ist. Hier ein paar Stichworte: Kundenanfragen werden immer mehr durch KI-Programme bestritten. In der Logistik: In Lagerhallen und ganzen Häfen arbeiten intelligente Roboter, die wiederum von anderen KI-Programmen überwacht und optimiert werden. Ähnliches in Fabriken mit Produktionsstraßen. Für die Wartung von Maschinenbenutzen Menschen Datenhelme, die über ein KI-Programm gesteuert werden und die dem Menschensagen, was er sieht, und wo er was tun soll. In der Landwirtschaft sind die beteiligten Maschinen vernetzt, haben KI-Programme entweder an Bord oder werden über Netzwerke mit KI-Programmen verbunden: diese kontrollieren den Einsatz und steuern Maßnahmen. Auf den Feldern können diese Maschinen autonom fahren. Im Bereich Luftfahrt und Schifffahrt können sich Flugzeuge und Schiffe schon heute völlig autonom bewegen, ebenso beim LKW-Verkehr und auf der Schiene. Durch das Internet der Dinge (IoT) wird gerade der Rest der Welt miteinander vernetzt und damit einer zunehmenden Kontrolle von KI-Programmen zugänglich gemacht. In der Telemedizin ist dies schon Alltag: Ferndiagnose und Fernbehandlung sind auf dem Vormarsch. Schon heute wird für die Diagnose schwieriger und seltener Krankheiten KI eingesetzt, weil sie besser ist als ganze Gruppen menschlicher Experten. Viele komplizierte Operationen – speziell im Bereich Gehirn – wären ohne Roboter und KI schon heute unmöglich. KI-Programme entschlüsseln das Erbgut von Zellen, Suchen und Finden neue chemische Verbindungen und pharmakologische Wirkstoffe.

In der Finanzwirtschaft haben KI-Programme nicht nur den Handel mit Aktien und anderen Finanzprodukten übernommen (Stichwort: Hochfrequenzhandel), sondern sie verwalten auch zunehmend das Vermögen von Privatpersonen, übernehmen den Kontakt mit den Kunden, und wickeln Schadensfälle für Versicherungen ab. Bei anwaltlichen Tätigkeiten werden Routineaufgaben von KI-Programmen übernommen. Richter in den USA lassen sich in einzelnen Bundesländern mit KI-Programmen die Wahrscheinlichkeit ausrechnen, mit der ein Angeklagter wieder rückfällig werden wird; dies wird zum Schicksal für die Angeklagten, weil die Richter diese Einschätzungen in ihr Urteil übernehmen. Das Militär setzt schon seit vielen Jahren in vielen Bereichen auf KI-Programme. Zuletzt bekannt durchfliegende Kampfroboter (Drohnen). Dazu weltweite Ausspähprogramme von Geheimdiensten, die mit Hilfe von KI-Programmen gewaltige Datenströme analysieren und bewerten.Diese Aufzählung mag beeindruckend klingen, sie ist aber nicht vollständig. In vielen anderen Bereichen wie z.B. Spielzeug, Online-Spiele, Musikproduktion,Filmproduktion, Massenmedien, Nachrichtenproduktion,… sind KI-Programme auch schon eingedrungen. So werden z.B. mehr und mehr Nachrichtentexte und ganze Artikel für Online-Portale und Zeitungen durch KI-Programme erstellt; Journalisten waren gestern. Dazu hunderttausende von sogenannten ’Bots’ (Computerprogramme, die im Internet kommunizieren, als ob sie Menschen wären), die Meinungen absondern, um andere zu beeinflussen. Was bedeuten diese Erscheinungsformen Künstlicher Intelligenz für uns?

A. Freund oder Konkurrent?

Bei einem nächtlichen Biergespräch mit einem der berühmtesten japanischen Roboterforschern erzählte er aus seinem Leben, von seinen Träumen und Visionen. Ein Thema stach hervor: seine Sicht der Roboter. Für ihn waren Roboter schon seit seiner Kindheit Freunde der Menschen, keinesfalls nur irgendwelche Maschinen. Mit diesen Roboter-Freunden soll das Leben der Menschen schöner, besser werden können. In vielen Science-Fiction Filmen tauchen Roboter in beiden Rollen auf: die einen sind die Freunde der Menschen, die anderen ihre ärgsten Feinde; sie wollen die Menschen ausrotten, weil sie überflüssig geworden sind. Bedenkt man, dass die Filme auf Drehbüchern beruhen, die Menschen geschrieben haben, spiegelt sich in diesem widersprüchlichen Bild offensichtlich die innere Zerrissenheit wieder, die wir Menschen dem Thema Roboter, intelligenten Maschinen, gegenüber empfinden. Wir projizieren auf die intelligenten Maschinen sowohl unsere Hoffnungen wie auch unsere Ängste, beides übersteigert, schnell ins Irrationale abrutschend.

B. Neue Verwundbarkeiten

Ob intelligente Maschinen eher die Freunde der Menschen oder ihre Feinde sein werden, mag momentan noch unklar sein, klar ist jedoch, dass schon jetzt der Grad der Vernetzung von allem und jedem jeden Tag einen realen Raum mit realen Bedrohungen darstellt. Global operierenden Hacker-Aktivitäten mit Datendiebstählen und Erpressungen im großen Stil sind mittlerweile an der Tagesordnung. Während die einen noch versuchen, es klein zu reden, lecken andere schon längst ihre Wunden und es gibt immer mehr Anstrengungen, diesen Angriffen mehr ’Sicherheit’ entgegen zu setzen. Doch widerspricht das Prinzip der Zugänglichkeit letztlich dem Prinzip der vollständigen Abschottung. Wenn die Vernetzung irgendeinen Sinn haben soll, dann eben den, dass es keine vollständige Abschottung gibt. Dies läuft auf die große Kunst einer ’verabredeten Abschottung’ hinaus: es gibt eine ’bestimmte Datenkonstellation, die den Zugang öffnet’. Dies aber bedeutet, jeder kann herumprobieren, bis er diese Datenkonstellation gefunden hat. Während die einen KI-Programme einsetzen, um diese Datenschlüssel zu finden, versuchen die anderen mit KI-Programmen, mögliche Angreifer bei ihren Aktivitäten zu entdecken. Wie dieses Spiel auf lange Sicht ausgehen wird, ist offen. In der Natur wissen wir, dass nach 3.8 Milliarden Jahren biologischem Leben die komplexen Organismen bis heute beständig den Angriffen von Viren und Bakterien ausgeliefert sind, die sich um Dimensionen schneller verändern können, als das biologische Abwehrsystem(das Immunsystem) lernen kann. Die bisherige Moral aus dieser Geschichte ist die, dass diese Angriffe bei komplexen Systemen offensichtlich ko-existent sind, dazu gehören. Nur ein schwacher Trost ist es, dass der beständige Abwehrkampf dazu beiträgt, die Systeme graduell besser zu machen. Mit Blick auf diese fortschreitende Vernetzung ist es wenig beruhigend, sich vorzustellen, dass es in ca. 70- 90 Jahren (wie viele vermuten) (Anmerkung: Siehe dazu eine längere Argumentation im 1.Kap. von Bostrom (2014) [Bos14]) tatsächlich eine echte technische Superintelligenz geben wird, die allen Menschen gegenüber überlegen ist; eine solche technische Superintelligenz könnte im Handumdrehen alle Netze erobern und uns alle zu ihren Gefangenen machen. Nichts würde mehr in unserem Sinne funktionieren: die Super-KI würde alles kontrollieren und uns vorschreiben, was wir tun dürfen. Über das Internet der Dinge und unsere Smartphones wäre jeder 24h unter vollständiger Kontrolle. Jede kleinste Lebensregung wäre sichtbar und müsste genehmigt werden. Ob und was wir essen, ob wir noch als lebenswert angesehen werden …

C. Noch ist es nicht soweit …

Zum Glück ist dieses Szenario einer menschenfeindlichen Superintelligenz bislang nur Science-Fiction. Die bisherigen sogenannten KI-Programme sind nur in einem sehr eingeschränkten Sinne lernfähig. Bislang sind sie wie abgerichtete Hunde, die nur das suchen,was ihnen ihre Auftraggeber vorgeben, zu suchen. Sie haben noch keine wirkliche Autonomie im Lernen, sie können sich noch nicht selbständig weiter entwickeln(nur unter speziellen Laborbedingungen). Allerdings sammeln sie Tag und Nacht fleißig Daten von allem und jedem und erzeugen so ihre einfachen Bilder von der Welt: z.B. dass die Männer im Alter von 21 in der Region Rhein-Main mit Wahrscheinlichkeit X folgende Gewohnheiten haben …. Herr Müller aus der Irgendwo-Straße hat speziell jene Gewohnheiten …. seine Freunde sind … Es gibt eine hohe Wahrscheinlichkeit dass er Partei Y wählen wird … dass er in drei Monaten ein neues Auto vom Typ X kaufen wird ….am liebsten klickt er folgende Adressen im Internet an …

In den Händen von globalen Firmen, anonymen Nachrichtendiensten, autoritären Regierungen oder verbrecherischen Organisationen können allerdings schon diese Daten zu einer echten Bedrohung werden, und diese Szenarien sind real. Die Rolle der bösen Superintelligenz wird hier bis auf weiteres noch von Menschen gespielt; Menschen haben in der Vergangenheit leider zur Genüge bewiesen, dass sie das Handwerk des Bösen sehr gut beherrschen können…Es stellt sich die Frage, ob sich die bisherigen einfachen künstlichen Intelligenzen weiter entwickeln können? Lernen künstliche Intelligenzen anders als Menschen? Welche Rolle spielen hier Werte? Sind Werte nicht ein altmodischer Kram, den nur Menschen brauchen (oder selbst diese eigentlich nicht)? Schließlich, wo kommt hier Gott ins Spiel? Tangieren künstliche Intelligenzen den menschlichen Glauben an Gott überhaupt?

II. WAS IST ’KÜNSTLICHE INTELLIGENZ’

Für eine Erkundungsreise in das Land der Künstlichen Intelligenz ist die Lage nicht ganz einfach, da das Gebiet der KI sich mittlerweile sehr stürmisch entwickelt. Immer mehr Konzepte stehen nebeneinander im Raum ohne dass es bislang allgemein akzeptierte Theorie- und Ordnungskonzepte gibt. (Anmerkung: Für zwei sehr unterschiedliche historische Rückblicke in das Thema sei verwiesen auf Mainzer (1995) [Mai95] und Nilsson (2010) [Nil10]. Für eine sehr populäre, wenngleich methodisch problematische, Einführung in den Stand der Disziplin siehe Russel und Norvik (2010) [RN10]).

Wir besuchen hier für einen Einstieg einen der großen Gründungsväter ganz zu Beginn 1936 – 1950 Alan Matthew Turing, und dann für die Zeit 1956 – 1976 Alan Newell und Herbert A.Simon. (Anmerkung: Simon war auch ein Nobelpreisträger im Gebiet der Wirtschaftswissenschaften 1978.) Dann schauen wir noch kurz in allerneueste Forschungen zum Thema Computer und Werte.

A. Am Anfang war der Computer

Wenn wir von künstlicher Intelligenz sprechen setzen wir bislang immer voraus, dass es sich um Programme (Algorithmen) handelt, die auf solchen Maschinen laufen, die diese Programme verstehen. Solche Maschinen gibt es seit 1937 und ihre technische Entwicklung hing weitgehend davon ab, welche Bauteile ab wann zur Verfügung standen. Das Erstaunliche an der bisherigen Vielfalt solcher Maschinen, die wir Computer nennen, ist, dass sich alle diese bis heute bekannt gewordenen Computer als Beispiele (Instanzen) eines einzigen abstrakten Konzeptes auffassen lassen. Dieses Konzept ist der Begriff des universellen Computers, wie er von Alan Matthew Turing 1936/7 in einem Artikel beschrieben wurde (siehe: [Tur 7] 4 ). In diesem Artikel benutzt Turing das gedankliche Modell einer endlichen Maschine für jene endlichen Prozesse, die Logiker und Mathematiker intuitiv als ’berechenbar’ und ’entscheidbar’ ansehen. (Anmerkung: Zum Leben Turings und den vielfältigen wissenschaftlichen Interessen und Einflüssen gibt es die ausgezeichnete Biographie von Hodges (1983) [Hod83].) Das Vorbild für Turing, nach dem er sein Konzept des universellen Computers geformt hat, war das eines Büroangestellten, der auf einem Blatt Papier mit einem Bleistift Zahlen aufschreibt und mit diesen rechnet.

B. Computer und biologische Zelle

Was Turing zur Zeit seiner kreativen Entdeckung nicht wissen konnte, ist die Tatsache, dass sein Konzept des universellen Computers offensichtlich schon seit ca. 3.5 Milliarden Jahre als ein Mechanismus in jeder biologischen Zelle existierte. Wie uns die moderne Molekularbiologie über biologische Zellen zur Erfahrung bringt(siehe [AJL + 15]), funktioniert der Mechanismus der Übersetzung von Erbinformationen in der DNA in Proteine (den Bausteinen einer Zelle) mittels eines Ribosom-Molekülkomplexes strukturell analog einem universellen Computer. Man kann dies als einen Hinweis sehen auf die implizite Intelligenz einer biologischen Zelle. Ein moderner Computer arbeitet prinzipiell nicht anders.

C. Computer und Intelligenz

Die bei Turing von Anfang an gegebene Nähe des Computers zum Menschen war möglicherweise auch die Ursache dafür, dass sehr früh die Frage aufgeworfen wurde, ob, und wenn ja, wieweit, ein Computer, der nachdem Vorbild des Menschen konzipiert wurde, auch so intelligent werden könnte wie ein Mensch?

Der erste, der diese Frage in vollem Umfang aufwarf und im einzelnen diskutierte, war wieder Turing. Am bekanntesten ist sein Artikel über Computerintelligenz von 1950 [Tur50]. Er hatte aber schon 1948 in einem internen Forschungsbericht für das nationale physikalische Labor von Großbritannien einen Bericht geschrieben über die Möglichkeiten intelligenter Maschinen. (Anmerkung: Eine Deutsche Übersetzung findet sich hier: [M.87]. Das Englische Original ’Intelligent Machinery’ von 1948 findet sich online im Turing Archiv: http://www.alanturing.net/intelligent_machinery.) In diesem Bericht analysiert er Schritt für Schritt, wie eine Maschine dadurch zu Intelligenz gelangen kann, wenn man sie, analog wie bei einem Menschen, einem Erziehungsprozess unterwirft, der mit Belohnung und Strafe arbeitet. Auch fasste er schon hier in Betracht, dass sein Konzept einer universellen Maschine das menschliche Gehirn nachbaut. Turing selbst konnte diese Fragen nicht entscheiden, da er zu dieser Zeit noch keinen Computer zur Verfügung hatte, mit dem er seine Gedankenexperimente realistisch hätte durchführen können. Aber es war klar, dass mit der Existenz seines universellen Computerkonzeptes die Frage nach einer möglichen intelligenten Maschine unwiderruflich im Raum stand. Die Fragestellung von Turing nach der möglichen Intelligenz eines Computers fand im Laufe der Jahre immer stärkeren Widerhall. Zwei prominente Vertreter der KI-Forschung, Allen Newell und Herbert A.Simon, hielten anlässlich des Empfangs des ACM Turing-Preises1975 eine Rede, in der sie den Status der KI-Forschung sowie eigene Arbeiten zum Thema machten (siehe dazu den Artikel [NS76]).

D. Eine Wissenschaft von der KI

Für Newell und Simon ist die KI-Forschung eine empirische wissenschaftliche Disziplin, die den Menschen mit seinem Verhalten als natürlichen Maßstab für ein intelligentes Verhalten voraussetzt. Relativ zu den empirischen Beobachtungen werden dann schrittweise theoretische Modelle entwickelt, die beschreiben, mit welchem Algorithmus man eine Maschine (gemeint ist der Computer) programmieren müsse, damit diese ein dem Menschen vergleichbares – und darin als intelligent unterstelltes – Verhalten zeigen könne. Im Experiment ist dann zu überprüfen, ob und wieweit diese Annahmen zutreffen.

E. Intelligenz (ohne Lernen)

Aufgrund ihrer eigenen Forschungen hatten Newell und Simon den unterstellten vagen Begriff der ’Intelligenz’ schrittweise ’eingekreist’ und dann mit jenen Verhaltensweisen in Verbindung gebracht, durch die ein Mensch (bzw. ein Computer) bei der Abarbeitung einer Aufgabe schneller sein kann, als wenn er nur rein zufällig’ handeln würde. ’Intelligenz’ wurde also in Beziehung gesetzt zu einem unterstellten ’Wissen’ (und zu unterstellten ‚Fertigkeiten‘), über das ein Mensch (bzw. ein Computer) verfügen kann, um eine bestimmte Aufgabe ’gezielt’ zu lösen. Eine so verstandene ’Intelligenz’ kann sich aus sehr vielfältigen, möglicherweise sogar heterogenen, Elementen zusammen setzen.

Dies erklärt ihre mannigfaltigen Erscheinungsweisen bei unterschiedlichen Aufgaben. ’Intelligenz’ ist dabei klar zu unterscheiden, von einem ’Lernen’. Ist die Aufgabenstellung vor dem Einsatz einer Maschine hinreichend bekannt, dann kann ein Ingenieur all das spezifische Wissen, das eine Maschine für die Ausführung der Aufgabe benötigt, von vornherein in die Maschine ’einbauen’. In diesem Sinne ist jede Maschine durch das Knowhow von Ingenieuren in einem spezifischen Sinne ’intelligent’. Bis vor wenigen Jahrzehnten war dies die Standardmethode, wie Maschinen von Ingenieuren entworfen und gebaut wurden.

F. Lernen ermöglicht Intelligenz

Im Fall von biologischen Systemen ist ein solches Vorgehen kaum möglich. Biologische Systeme entstehen (durch Zellteilung), ohne dass bei der Entstehung bekannt ist, wie die Umwelt aussehen wird, ob sie sich verändert, welche Aufgaben das biologische Systemlösen muss. Zwar haben alle biologische Systeme auch genetisch vorbestimmte Verhaltensmuster, die gleich bei der Geburt zur Verfügung stehen, aber darüber hinaus haben alle biologische Systeme einen ariablen Anteil von Verhaltensweisen, die sie erst lernen müssen. Das Lernen ist hier jene Fähigkeit eines biologischen Systems, wodurch es seine internen Verhaltensstrukturen in Abhängigkeit von der ’Erfahrung’ und von ’spezifischen Bewertungen’ ’ändern’ kann. Dies bedeutet, dass biologische Systeme durch ihre Lernfähigkeit ihr Verhalten ’anpassen’ können. Sie können damit – indirekt – ein ’spezifisches Wissen’ erwerben, das ihnen dann eine spezifische ’Intelligenz’ verleiht, wodurch das biologischen System besser als durch Zufall reagieren kann. Diese Fähigkeit eines situationsgetriebenen Wissens besaßen Maschinen bis vor kurzem nicht. Erst durch die modernen Forschungen zu einer möglichen ’künstlichen Intelligenz (KI)’ machte man mehr und mehr Entdeckungen, wie man Maschinen dazu in die Lage versetzen könnte, auch nach Bedarf neues Verhalten erlernen zu können. Innerhalb dieses Denkrahmens wäre dann eine ’künstliche Intelligenz’ eine Maschine, hier ein Computer, der über Algorithmen verfügt, die ihn in die Lage versetzen, Aufgaben- und Situationsabhängig neues Verhalten zu erlernen, falls dies für eine bessere Aufgabenbearbeitung wünschenswert wäre.

Die noch sehr ursprüngliche Idee von Turing, dass ein Computer Lernprozesse analog dem der Menschen durchlaufen könnte, inklusive Belohnung und Bestrafung, wurde seitdem auf vielfältige Weise weiter entwickelt. Eine moderne Form dieser Idee hat unter dem Namen ’Reinforcement Learning’ sehr viele Bereiche der künstlichen Intelligenzforschung erobert (vgl. Sutton und Barto (1998) [SB98]).

G. KI und Werte

Für die Aufgabenstellung einer ’lernenden Intelligenz’ spielen ’Werte’ im Sinne von ’Verhaltenspräferenzen’ eine zentrale Rolle. Ein Gebiet in der KI-Forschung, in dem diese Thematik sehr intensiv behandelt wird, ist der Bereich der ’Entwicklungs-Robotik’ (Engl.:’developmental robotics’). In diesem Bereich wurde u.a. die Thematik untersucht (vgl. Kathryn Merrick(2017) [Mer17]), wie ein Roboter ’von sich aus’, ohne direkte Befehle, seine Umgebung und sich selbst ’erforschen’ und aufgrund dieses Lernens sein Verhalten ausrichten kann. Dabei zeigt sich, dass reine Aktivierungsmechanismen, die im Prinzip nur die Neugierde für ’Neues’ unterstützen, nicht ausreichend sind. Außerdem reicht es nicht aus, einen Roboter isoliert zu betrachten, sondern man muss Teams oder ganze Populationen von Robotern betrachten, da letztlich ein ’Wert’ im Sinne einer ’Präferenz’ (eine bevorzugte Verhaltenstendenz) nur etwas nützt, wenn sich alle Mitglieder einer Population daran orientieren wollen. Dies führt zur grundlegenden Frage, was denn eine Population von Robotern gemeinschaftlich als solch einen gemeinsamen ’Wert’ erkennen und akzeptieren soll. Wirklich befriedigende Antworten auf diese grundlegenden Fragen liegen noch nicht vor. Dies hat u.a. damit zu tun, dass die Robotersysteme, die hier untersucht werden, bislang noch zu unterschiedlich sind und dass es auch hier bislang – wie bei der KI-Forschung insgesamt – ein großes Theoriedefizit gibt in der Frage, innerhalb welches theoretischen Rahmens man diese unterschiedlichen Phänomene denn diskutieren soll.

Man kann aber den Ball dieser Forschung einmal aufgreifen und unabhängig von konkreten Realisierungsprozessen die Frage stellen, wie denn überhaupt ein ’Wert’ beschaffen sein müsste, damit eine ganze Population von Robotern sich ’von sich aus’ darauf einlassen würde. Letztlich müsste auch ein Roboter entweder eine ’eingebaute Tendenz’ haben, die ihn dazu drängt, ein bestimmtes Verhalten einem anderen vor zu ziehen, oder aber es müsste eine ’nicht eingebaute Tendenz’ geben, die im Rahmen seiner ’internen Verarbeitungsprozesse’ neue Verhalten identifizieren würde, die ihm im Sinne dieser ’Tendenz’ ’wichtiger’ erscheinen würde als alles andere. Es ist bislang nicht erkennbar, wo eine ’nicht eingebaute Tendenz’ für eine Verhaltensauswahl herkommen könnte. Ein industrieller Hersteller mag zwar solche Werte aufgrund seiner Interessenlage erkennen können, die er dann einem Roboter ’zu verstehen geben würde’, aber dann wäre die Quelle für solch eine ’Initiierung einer Verhaltenstendenz’ ein Mensch.

In der aktuellen Forschungssituation ist von daher als einzige Quelle für nicht angeborene Verhaltenstendenzen bislang nur der Mensch bekannt. Über welche Werte im Falle von sogenannten künstlichen Super-Intelligenzen diese verfügen würden ist noch unklar. Dass künstliche Super-Intelligenzen von sich aus Menschen grundsätzlich ’gut’ und ’erhaltenswert’ finden werden, ist in keiner Weise abzusehen. Die künstlichen Superintelligenzen müssten sich in Wertefragen – wenn überhaupt – eher am Menschen orientieren. Da die bisherige Geschichte der Menschheit zeigt, dass der Mensch selbst zu allen Zeiten eine starke Neigung hat, andere Menschen zu unterdrücken, zu quälen, und zu töten, würde dies für alle Menschen, die nicht über künstliche Superintelligenzen verfügen, tendenziell sehr gefährlich sein. Ihr ’Opferstatus’ wäre eine sehr große Versuchung für die jeweilige technologische Macht.

III. WER SIND WIR MENSCHEN?

Wenn Menschen sich in der KI wie in einem Spiegelbetrachten, dann kann dies für den betrachtenden Menschen viele Fragen aufwerfen. Zunächst erfinden die Menschen mit dem Computer einen Typ von intelligenter Maschine, die zunehmend den Eindruck erweckt, dass sich die Menschen in solchen Maschinen vervielfältigen (und möglicherweise noch übertreffen) können. Dann benutzen sie diese Computer dazu, die Strukturen des menschlichen Körpers immer tiefer zu erforschen, bis hin zu den Zellen und dort bis in die Tiefen der molekularen Strukturen, um z.B. unsere Gene zu erforschen, unser Erbmaterial, und zwar so weitgehend, dass wir dieses Erbmaterial gezielt verändern können. Die Menschen verstehen zwar noch nicht in vollem Umfang die möglichen Wirkungen der verschiedenen Änderungen, aber es ist möglich, real Änderungen vorzunehmen, um auszuprobieren, ’was dann passiert’? Mit Hilfe des Computers beginnt der Mensch, seinen eigenen Bauplan, sein eigenes genetisches Programm, umzubauen.

Dazu kommt, dass die Menschen seit dem19.Jahrhundert mit der modernen Biologiewissen können, dass die vielfältigen Formen des biologischen Lebens zu einem bestimmten Zeitpunkt immer das Ergebnis von langen vorausgehenden Entwicklungsprozessen sind. Das Wachsen und Sterben von Organismen gründet jeweils in einer befruchteten Zelle, für die durch das Erbmaterial festgelegt ist, wie sie sich weiter vermehrt und wie sich Millionen, Milliarden und gar Billionen von Zellen zu komplexen Formen zusammen finden. Und bei der Vervielfältigung von Zellen können Änderungen, Abweichungen vom ursprünglichen Plan auftreten, die über viele Tausende  und Millionen von Jahren zu deutlichen Änderungen im Bau und Verhalten eines Organismus führen können. Die Biologen sprechen von ’Evolution’. Eine Erkenntnis aus diesem Evolutionsprozess war (und ist), dass wir Menschen, so, wie wir heute da sind, auch solche evolutionär gewordene biologische Strukturen sind, die Vorläufer hatten, die mit uns heutigen Menschen immer weniger zu tun hatten, je weiter wir in der Zeit zurückgehen. Wer sind wir also?

Die Frage, ob Computer als intelligente Maschinen genau so gut wie Menschen werden können, oder gar noch besser, läuft auf die Frage hinaus, ob der Mensch Eigenschaften besitzt, die sich generell nicht durch einen Computer realisieren lassen.

Die moderne Psychologie und die modernen Neurowissenschaften haben bislang nichts zutage fördern können, was sich einem ingenieurmäßigen Nachbau entziehen könnte. Auch wenn es sich hierbei nicht um einen ’strengen Beweise’ handelt, so kann dieser Anschein einer generellen ’maschinelle Reproduzierbarkeit’ des Menschen in Gestalt von intelligenten Maschinen das bisherige Selbstverständnis von uns Menschen stark verunsichern.

IV. GLAUBEN AN GOTT

A. In allen Himmelsrichtungen

Aus der Geschichte der letzten Jahrtausende wissen wir, dass es zu allen Zeiten und in allen Kulturen Religionen gegeben hat. Die größten sind wohl (bis heute) der Hinduismus, der Buddhismus, das Judentum mit dem Christentum, und der Islam. So verschieden diese zu verschiedenen Zeiten und in verschiedenen Regionen äußerlich erscheinen mögen, sie verbindet alle das tiefe Fühlen und Glauben von Menschen an einen über-persönlichen Sinn, der Glaube an ein höheres Wesen, das zwar unterschiedliche Namen hat (’Gott’, ’Deus’, ’Theos’, ’Jahwe’, ’Allah’ …), aber – möglicherweise – vielleicht nur ein einziges ist.

B. Jüdisch-Christlich

So verschieden die christlichen Bekenntnisse der Gegenwart auch sein mögen, was die Anfänge angeht beziehen sich noch immer alle auf die Bibel, und hier, für die Anfänge der Geschichte auf das Alte Testament.(Anmerkung: Für eine deutsche Übersetzung siehe die Katholisch-Evangelische Einheitsübersetzung [BB81]).

Wie uns die modernen Bibelwissenschaften lehren, blickt der Text des Alten Testaments auf eine vielfältige Entstehungsgeschichte zurück. (Anmerkung: Für eine Einführung siehe Zenger et.al (1998) [ZO98]). Nicht nur, dass der Übergang von der mündlichen zur schriftlichen Überlieferung sich im Zeitraum von ca. -700 bis ca.+200 abgespielt hat, auch die redaktionelle Erzeugung verweist auf sehr viele unterschiedliche Traditionen, die nebeneinander existiert und die zu unterschiedlichen Varianten geführt haben. Auch die Kanonbildung dauerte dann nochmals viele hundert Jahre mit dem Ergebnis, dass es schwer ist, von dem einen Urtext zu sprechen. Für jene Menschen, die vorzugsweise Halt an etwas Konkretem, Festen suchen, mag dieses Bild der Überlieferung der Texte des alten Testaments beunruhigend wirken. Wird hier nicht vieles relativiert? Kann man denn da noch von einem ’Wort Gottes an die Menschen’ sprechen? Diese Furcht ist unbegründet, im Gegenteil.

C. Neues Weltbild

Wenn wir Menschen heute lernen (dürfen!), wie unsere individuelle, konkrete Existenz eingebettet ist in einen geradezu atemberaubenden Prozess der Entstehung der bekannten Lebensformen über viele Milliarden Jahre, wie unser eigener Körper ein unfassbares Gesamtkunstwerk von ca. 37 Billionen (10^12 !) Körperzellen in Kooperation mit ca. 100 Bio Bakterien im Körper und ca. 220 Mrd. Zellen auf der Haut  ist, die in jedem Moment auf vielfältige Weise miteinander reden, um uns die bekannten Funktionen des Körpers zur Verfügung zu stellen, dann deutet unsere reale Existenz aus sich heraus hin auf größere Zusammenhänge, in denen wir vorkommen, durch die wir sind, was wir sind. Und zugleich ist es die Erfahrung einer Dynamik, die das Ganze des biologischen Lebens auf der Erde in einem ebenfalls sich entwickelnden Universum umfasst und antreibt. Wenn wir verstehen wollen, wer wir sind, dann müssen wir diesen ganzen Prozess verstehen lernen.

Wenn wir uns dies alles vor Augen halten, dann können uns die Texte des alten Testaments sehr nahe kommen. Denn diese Texte manifestieren durch ihre Vielfalt und ihre Entstehungsgeschichte über viele Jahrhunderte genau auch diese Dynamik, die das Leben auszeichnet.

D. Schöpfungsberichte

Claus Westermann, ein evangelischer Theologe und Pfarrer, leider schon verstorben, hat uns einen Kommentar zum Buch Genesis hinterlassen und eine Interpretation der beiden biblischen Schöpfungsberichte, der jedem, der will, aufzeigen kann, wie nah diese alten Texte uns heute noch sein können, vielleicht viel näher als je zuvor. (Anmerkung: Neben seinen beiden wissenschaftlichen Kommentaren aus den Jahren 1972 und 1975 hat er schon 1971 ein kleines Büchlein geschrieben, in dem er seine Forschungsergebnisse in einer wunderbar lesbaren Form zusammengefasst hat (siehe: [Wes76]).

Der erste der beiden Schöpfungstexte in Gen 1,1-2,4a ist der jüngere der beiden; seine Entstehung wird auf die Zeit 6.-5.Jh vor Christus angesetzt, der zweite Schöpfungstext in Gen 2,4b – 24 wird mit seiner Entstehung im 10.-9.Jh vor Christus verortet. Der jüngere wird einer Überlieferungsschicht zugeordnet, die als ’Priesterschrift’ bezeichnet wird, die einen großen Bogen spannt von der Entstehung der Welt mit vielen Stationen bis hin zu einem neuen Bund zwischen Menschen und Gott. Dieser erste Schöpfungsbericht, bekannt durch sein 7-Tage-Schema, steht im Übergang von sehr, sehr vielen Traditionen mythischer Berichte über Schöpfung in den umliegenden Kulturen, Traditionen, die selbst viele Jahrhunderte an Entstehungszeit vorweisen können. Von daher wundert es nicht, wenn sich einzelne Worte, Motive, Bilder, die auch im 7-Tage-Schema auftauchen, Parallelen haben in anderen Schöpfungsgeschichten. Interessant ist das, was die biblische Schöpfungsgeschichte der Priesterschrift anders macht als die anderen bekannten Geschichten es tun.

E. Menschen als Ebenbild

Die zentrale Aussage im neueren Schöpfungsbericht ist nicht, wie im älteren Text, wie Gott den Menschen geschaffen hat, sondern die Aussage, dass er den Menschen nach seinem Bilde geschaffen hat, und dass er dem Menschen eine Verantwortung übertragen hat. In der schon zu dieser Zeit bekannten Vielgestaltigkeit der Welt, ihrer vielen Werdeprozesse, war die zentrale Einsicht und damit verbunden der Glaube, dass der Mensch als ganzer (nicht eine einzelne Gruppe, kein bestimmter Stamm, kein bestimmtes Volk!) über die konkrete, reale Existenz hinausweisend mit Gott verbunden ist als seinem Schöpfer, der auch ansonsten alles geschaffen hat: die Gestirne sind keine Götter, wie in vielen anderen älteren Mythen. Die Menschen sind nicht dazu da, niedere Arbeiten für Gott zu machen, wie in anderen Mythen. Die Menschen werden vielmehr gesehen als in einem besonderen Status im Gesamt der Existenz in der Geschichte, mit einer Verantwortung für das Ganze.

Und diese besondere Stellung des Menschen wird nicht festgemacht an besonderen körperlichen und geistigen Eigenschaften; schon zu dieser Zeit wussten die Autoren der Priesterschrift, wie vielfältig die Lebensformen, ja der konkrete Mensch, sein kann. Wenn wir heute durch die Wissenschaften lernen können, wie der Mensch sich im größeren Ganzen eines biologischen Werdens einsortieren lässt, wie der Mensch selbst durch seine Kultur, seine Technologie in der Lage und bereit ist, sich selbst in allen Bereichen– einschließlich seines biologischen Körpers – zu verändern, dann steht dies in keiner Weise im Gegensatz zu der globalen Sicht des biblischen Schöpfungsberichts. Im Gegenteil, man kann das Gefühl bekommen, das sich in unserer Gegenwart die Weite des biblischen Texte mit den neuen Weiten der Erkenntnisse über Mensch und Universum neu begegnen können. Was allerdings heute auffällig ist, wie viele Menschen sich schwer tun, in diesen neuen primär wissenschaftlichen Weltsichten den Glauben an einen Gott, einen Schöpfer, an eine Geschichtsübergreifende Beziehung zu einem Schöpfer aufrecht zu erhalten. Ist dies heute nicht mehr möglich?

F. Frömmigkeit – Spiritualität

An dieser Stelle sollte man sich vergegenwärtigen, dass zu allen Zeiten die Menschen in ihrer Religiosität nie nur ’gedacht’ haben, nie nur ’mit Bildern’ der Welt oder Gottes umgegangen sind. Zu allen Zeiten gab es – und gibt es noch heute – auch das, was man ’Frömmigkeit’ nennt, ’Spiritualität’, jenes sehr persönliche, individuelle sich einem Gott gegenüber ’innerlich Vorfinden‘, ’Ausrichten’, ’Fühlen’, ’Erleben’. Es ist nicht leicht, dafür die richtigen Worte zu finden, da es nun einmal ’innere’ Prozesse sind, die sich nicht wie Gegenstände vorweisen lassen können.   Sie betreffen das grundsätzliche Erleben eines Menschen, ein inneres Suchen, ein Erfahren, ein Erfülltsein (oder auch Leersein), das, was viele Menschen ermöglicht, ihr Leben in einer anderen, neuen Weise zu gestalten, sich zu ändern, anders mit Gefahren und Leiden umzugehen. In den Bildern des Alltags ’mehr’ sehen zu können als ohne dieses innere Erleben, Gestimmt sein.

In einer interessanten Untersuchung hat der britische Philosoph Walter Terence Stace die spirituellen Zeugnisse von vielen Jahrtausenden in unterschiedlichen Kulturen philosophisch untersucht (vgl. [Sta60]). Er kommt zu dem Ergebnis, dass sich trotz aller Verschiedenheiten im Äußeren, auch bei bestimmten Interpretationen, im Kern des Erlebens, des Wahrnehmens, sofern man dieses überhaupt von möglichen Interpretationen trennen lässt, erstaunliche Übereinstimmungen erkennen kann. Er folgert daraus, dass diese Fähigkeit von Menschen, einen übergreifenden Sinn direkt, existentiell erfahren zu können, möglicherweise auf eine sehr grundsätzliche Eigenschaft aller Menschen verweist, die wir einfach haben, weil wir Menschen sind. (Anmerkung: Er schließt auch nicht aus, dass alles Lebendige, von dem wir Menschen ja nur ein Teil sind, an dieser grundsätzlichen Fähigkeit einen Anteil haben könnte, wenn auch möglicherweise verschieden von der Art, wie wir Menschen erleben können.)

Die Tiefe und Weite der Sicht des jüngeren Schöpfungsberichts im Buch Genesis würde einem solchen grundlegenden Sachverhalt gut entsprechen: das Bild vom Menschen als Ebenbild Gottes schließt eine besondere Verbundenheit nicht aus; das ist das, was nach Westermann dem Menschen seine besondere Würde verleiht, diese Beziehung, nicht sein aktuelles konkretes So-sein, das sich ändern kann, ist die zentrale Botschaft.

G. Mensch, KI, Glaube an Gott

Damit beginnt sich der Kreis zu schließen. Wenn die Besonderheit des Menschen, seine zeitübergreifende Würde, in dieser grundlegenden Beziehung zu einem Schöpfergott gründet, die sich vielfältig im Gesamt des Universums und Lebens manifestiert, speziell auch in einer Form von individueller Spiritualität, dann gewinnt die Frage nach der Zukunft von Mensch und intelligenten Maschinen noch eine neue Nuance.

Bislang wird von den Vertretern einer Zukunft ohne Menschen nur noch mit intelligenten Maschinen einseitig abgehoben auf die größere Rechenkraft und die größeren Speicher, die alles erklären sollen. In diesem Beitrag wurde darauf hingewiesen, dass selbst die einfachsten Formen des Lernens ohne ’Werte’ im Sinne von ’Präferenzen’, von ’Bevorzugung von Handlungsalternativen’, ins Leere laufen. Sogenannte ’angeborene’ Präferenzen (oder eingebaute) können nur einen sehr begrenzten Nutzen vermitteln, da sich die Handlungsgegebenheiten und die gesamte Welt beständig weiter verändern. Auch die teilweise sehr komplexen Wertfindungen im sozialen-kulturellen Kontext ganzer Populationen, die von den künstlichen Intelligenzen dieser Welt noch nicht mal ansatzweise beherrscht werden, sind nur von begrenztem Wert, wie die bisherige Kulturgeschichte der Menschen eindrücklich belegt. [Mai95]

Vor diesem Hintergrund ist aktuell nicht zu sehen, wie intelligente Maschinen in der Zukunft alleine zu irgendwelchen brauchbaren Präferenzen kommen können. [SB98][Mer17][Nil10][NS76][RN10][Sta60][Tur37] Ungeklärt ist aktuell allerdings, ob und wieweit der Mensch – also jeder von uns – im Wechselspiel von philosophisch-empirischer Welterkenntnis und Spiritualität jene großen Richtungen ermitteln kann, die für die kommende komplexe Zukunft gefordert wird?

Sollte die Existenz eines Schöpfergottes über Welterkenntnis und Spiritualität wichtig sein für ein weiteres erfolgreiches Fortschreiten, dann hätten intelligente Maschinen möglicherweise ein grundsätzliches Problem. Es sei denn, auch sie könnten Gott erfahren? Einfacher wäre es, wenn Mensch und Maschine ihre aktuelle Koexistenz zu einer intensiveren Symbiose ausbauen würden. Dies würde viele sehr spannende Perspektiven bieten. Der Glaube an einen Schöpfergott ist auch heute, nach allem, was wir jetzt wissen können, keineswegs unsinnig;er erweist sich sogar – rein rational – als scheinbar dringend notwendig. Andererseits ist ein lebendiger Glaube kein Automatismus, sondern erfordert von jedem Menschen sein sehr persönliches Engagement in Verbundenheit mit dem ganzen Leben in einem dynamischen Universum. Gott erscheint hier nicht als das Hindernis, eher unsere Verweigerungen, das Ganze anzuschauen und zu akzeptieren.

QUELLEN

[*] G.Doeben-Henisch, Künstliche Intelligenz und der Glaube an Gott, In: Brennpunkt Gemeinde 70 (Aug./Sept. 2017), Studienbrief R21, 14 S., Hg. AMD Arbeitsgemeinschaft Missionarische Dienste im Verbund der Diakonie, Neukirchener Verlagsgesellschaft mbH, 47497 Neukirchen-Vluyn

[AJL + 15] B. Alberts, A. Johnson, J. Lewis, D. Morgan, M. Raff,
K. Roberts, and P. Walter. Molecular Biology of the Cell.
Garland Science, Taylor & Francis Group, LLC, Abington
(UK) – New York, 6 edition, 2015.
[BB81] Katholisches Bibelwerk and Deutsche Bibelgesellschaft. Die
Heilige Schrift. Einheitsübersetzung. Verlag Katholisches
Bibelwerk & Deutsche Bibelgesellschaft, Stuttgart, 1 edition, 1981.
[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies.
Oxford University Press, Oxford (UK), 1 edition, 2014.
[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien
– New York, 1 edition, 1983.
[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler
and Friedrich Kittler, editors, Alan M. Turing. Intelligence
Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mai95] Klaus Mainzer. Computer – Neue Flügel des Geistes? Die
Evolution computergestützter Technik, Wissenschaft, Kultur
und Philosophie. Walter de Gruyter, Berlin – New York, 1th edition, 1995.
[Mer17] Kathrin Merrick. Value systems for developmental cognitive
robotics: A survey. Cognitive Systems Research, 41:38–55, 2017.
[Nil10] Nils J. Nilsson, editor. The Quest for Artificial Intelligence. A
History of Idesas and Achievements. Cambridge University
Press, New York, 2010.
[NS76] Allen Newell and Herbert A. Simon. Computer science as
empirical inquiry: Symbols and search. Communications of
the ACM, 19(3):113–126, 1976.
[RN10] Stuart J. Russell and Peter Norvig. Artificial Intelligence: A
Modern Approach. Prentice Hall, Inc., Upper Saddle River, 2010.
[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement
Learning. An Introduction. The MIT Press, Ambridge (MA) –
London, 1 edition, 1998.
[Sta60]W.T. Stace. Mysticism and Philosophy. Jeremy P.Tarcher,
Inc., Los Angeles, 1 edition, 1960. (Eine Diskussion hier im Blog findet sich HIER).
[Tur37] Alan M. Turing. Corrections to: On computable numbers, with
an application to the entscheidungsproblem. Proceedings of
the London Mathematical Society, 43:544–546, 1937.
[Tur50] Alan Turing. Computing machinery and intelligence. Mind,
59:433–460, 1950.
[Tur 7] Alan M. Turing. On computable numbers, with an application
to the entscheidungsproblem. Proceedings of the London
Mathematical Society, 42(2):230–265, 1936-7.
[Wes76] Claus Westermann. Schöpfung. Kreuz-Verlag, Stuttgart –
Berlin, 2 edition, 1976.
[ZO98] Erich Zenger and Others. Einleitung in das Alte Testament.
W.Kohlhammer, Stuttgart, 3rd edition, 1998

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DAS PHILOSOPHIE JETZT PHILOTOP

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 30.Nov. 2017
URL: cognitiveagent.org
info@cognitiveagent.org

Autor: cagent
Email: cagent@cognitiveagent.org

Worum geht’s — Meine Antwort auf die von vielen gestellte
Frage, wie denn die  verschiedenen Seiten untereinander zusammen hängen, war zu schnell (siehe den Blogeintrag vom 14.November ). Hier eine Korrektur.

I. EIN PHILOTOP

Wie man unschwer erkennen kann, ist das Wort
’Philotop’ eine Übertragung von dem Wort ’Biotop’.
Für Biologen ist klar, dass man einzelne Lebensformen
eigentlich nur angemessen verstehen kann, wenn
man ihren gesamten Lebensraum mit betrachtet:
Nahrungsquellen, Feinde, ’Kollaborateure’, Klima, und
vieles mehr.

Ganz ähnlich ist es eigentlich auch mit dem Blog
’Philosophie Jetzt: Auf der Suche …’. Auch diese Ideen
haben sehr viele Kontexte, Herkünfte, wechselseitige
Interaktionen mit vielen anderen Bereichen. Ohne diese
Kontexte könnte der Blog vielleicht gar nicht ’atmen’.

Im Blogeintrag vom 14.November 2017 wurde
verwiesen auf die monatliche Philosophiewerkstatt, in
der in einer offenen Gesprächsrunde Fragestellungen
gemeinsam gedacht werden. Seltener gibt es
die Veranstaltung Philosophy-in-Concert, in der philosophische Ideen, eingebettet in experimentelle Musik, Bildern und Texten ihren Empfänger suchen und
sich auch auf ein Gespräch einlassen.

Schaubild vom Philotop ( die 'Kernbereiche') :-)

Schaubild vom Philotop ( die ‚Kernbereiche‘) 🙂

Die Wechselwirkung mit den nächsten beiden
Blogs liegt für manche vielleicht nicht so auf der
Hand. Aber bedingt durch die langjährige Lehr-
und Forschungstätigkeit von cagent im Bereich des
Engineerings stellte sich heraus, dass gerade das
Engineering der Welt riesige Potentiale für eine
moderne Philosophie bietet, und dies nicht nur einfach
als begriffs-ästhetische Spielerei, sondern mit einem
sehr konkreten Impakt auf die Weise, wie Ingenieure die
Welt sehen und gestalten. Daraus entstand ein Projekt,
das bislang keinen wirklich eigenen Namen hat.

Umschrieben wird es mit ’Integrated Engineering of
the Future’, also ein typisches Engineering, aber eben
’integriert’, was in diesem Kontext besagt, dass die
vielen methodisch offenen Enden des Engineerings hier
aus wissenschaftsphilosophischer Sicht aufgegriffen und
in Beziehung gesetzt werden zu umfassenderen Sichten
und Methoden. Auf diese Weise verliert das Engineering
seinen erratischen, geistig undurchdringlichen Status
und beginnt zu ’atmen’: Engineering ist kein geist-
und seelenloses Unterfangen (wie es von den Nicht-
Ingenieuren oft plakatiert wird), sondern es ist eine
intensive Inkarnation menschlicher Kreativität, von
Wagemut und zugleich von einer rationalen Produktivität,
ohne die es die heutige Menschheit nicht geben würde.

Das Engineering als ein Prozess des Kommunizierens
und darin und dadurch des Erschaffens von neuen
komplexen Strukturen ist himmelhoch hinaus über
nahezu allem, was bildende Kunst im Kunstgeschäft
so darbietet. Es verwandelt die Gegenart täglich und
nachhaltig, es nimmt Zukünfte vorweg, und doch fristet
es ein Schattendasein. In den Kulturarenen dieser Welt,
wird es belächelt, und normalerweise nicht verstanden.
Dies steht  im krassen Missverhältnis zu seiner Bedeutung.
Ein Leonardo da Vinci ist ein Beispiel dafür, was es
heißt, ein philosophierender Ingenieur gewesen zu sein,
der auch noch künstlerisch aktiv war.
Innerhalb des Engineerings spielt der Mensch in
vielen Rollen: als Manager des gesamten Prozesses, als mitwirkender Experte, aber auch in vielen Anwendungssituationen als der intendierte Anwender.

Ein Wissen darum, wie ein Mensch wahrnimmt, denkt,
fühlt, lernt usw. ist daher von grundlegender Bedeutung. Dies wird in der Teildisziplin Actor-Actor-Interaction (AAI) (früher, Deutsch, Mensch-Maschine Interaktion oder,
Englisch, Human-Machine Interaction), untersucht und methodisch umgesetzt.

Die heute so bekannt gewordene Künstliche Intelligenz
(KI) (Englisch: Artificial Intelligence (AI)) ist ebenfalls ein
Bereich des Engineerings und lässt sich methodisch
wunderbar im Rahmen des Actor-Actor Interaction
Paradigmas integriert behandeln. Im Blog wird es unter
dem Label Intelligente Maschinen abgehandelt.
Sehr viele, fast alle?, alle? Themen aus der
Philosophie lassen sich im Rahmen des Engineerings,
speziell im Bereich der intelligenten Maschinen als Teil
des Actor-Actor-Interaction Paradigmas neu behandeln.

Engineering ist aber nie nur Begriffsspielerei.
Engineering ist immer auch und zuvorderst Realisierung
von Ideen, das Schaffen von neuen konkreten Systemen,
die real in der realen Welt arbeiten können. Von daher
gehört zu einer philosophisch orientierten künstlichen
Intelligenzforschung auch der Algorithmus, das lauffähige
Programm, der mittels Computer in die Welt eingreifen
und mit ihr interagieren kann. Nahezu alle Themen der
klassischen Philosophie bekommen im Gewandte von
intelligenten Maschinen eine neue Strahlkraft. Diesem
Aspekt des Philosophierens wird in dem Emerging-Mind
Lab Projekt Rechnung getragen.

Mit dem Emerging-Mind Lab und dessen Software
schließt sich wieder der Kreis zum menschlichen
Alltag: im Kommunizieren und Lernen ereignet sich
philosophisch reale und mögliche Welt. Insoweit intelligenten Maschinen aktiv daran teilhaben können, kann dies die Möglichkeiten des Menschen spürbar erweitern. Ob zum Guten oder Schlechten, das entscheidet
der Mensch selbst. Die beeindruckende Fähigkeit von
Menschen, Gutes in Böses zu verwandeln, sind eindringlich belegt. Bevor wir Maschinen verteufeln, die wir
selbst geschaffen haben, sollten wir vielleicht erst einmal
anfangen, uns selbst zu reformieren, und dies beginnt
im Innern des Menschen. Für eine solche Reform des
biologischen Lebens von innen gibt es bislang wenig bis
gar keine erprobten Vorbilder.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

WAHRHEIT ALS UNABDINGBARER ROHSTOFF EINER KULTUR DER ZUKUNFT

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 20.Nov. 2017
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: cagent
Email: cagent@cognitiveagent.org

ÜBERSICHT


I Zukunft als Politischer Zankapfel 1
II Wahrheit als Chance 2
III Wahrheit als Betriebssystem einer Kultur  2
III-A Überwindung des Augenblicks . . . .2
III-B Das ’Äußere’ als ’Inneres’ . . . . . .2
III-C Das ’Innere’ als ’Außen’ und als ’Innen’ 3
III-D Fähigkeit zur Wahrheit . . . . . . . . 3
III-E Bindeglied Sprache . . . . . . . . . . 4
IV Wahrheit durch Sprache? 4
V Wahrheit in Freiheit 5
VI Energie 5
VII Wahrheit durch Spiritualität 6
VIII Intelligente Maschinen 7
IX Der homo sapiens im Stress-Test 8
X ’Heilige’ Roboter 8
XI Singularität(en) 9
XII Vollendung der Wissenschaften 10
Quellen: 11

 

ZUSAMMENFASSUNG

Nachdem es in diesem Blog schon zahlreiche
Blogbeiträge zum Thema Wahrheit gab, geht es in diesem
Beitrag um die wichtige Ergänzung, wie Wahrheit mit einer
Kultur der Zukunft zusammenspielt. Hier wird aufgezeigt,
dass eine Kultur der Zukunft ohne Wahrheit unmöglich
ist. Wahrheit ist der entscheidende, absolut unabdingbare
Rohstoff für eine Kultur der Zukunft.

Für den vollständigen Text siehe das PDF-Dokument.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

MENSCHENBILD – VORGESCHICHTE BIS ZUM HOMO SAPIENS – Überlegungen

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 27.August 2017
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Altualisierung: 27.Aug.2017 - 17:37h
Es gibt eine Weiterentwicklung dieses Beitrags in einem Folgebeitrag!

PDF

Überblick

Eingeleitet durch wissenschaftsphilosophische
Überlegungen wird versucht, die Entwicklung der
Säugetiere bis hin zum homo sapiens anhand der aktuellen
Forschungsdaten abzubilden. Das Hauptaugenmerk liegt
auf der allgemeinen Struktur. Für die vielen Details sei auf
die Literatur verwiesen, die angegeben wird.

I. KONTEXT

Eine der Leitfragen dieses Blogs ist die Frage nach
dem neuen Menschenbild, speziell auch im Kontext
der Diskussion um die Zukunft von Menschen und
intelligenten Maschine.

Wer nach der Zukunft des Menschen fragt,
braucht ein gutes Bild vom aktuellen Menschen und
seiner Entstehungsgeschichte, um auf dieser Basis
Überlegungen zu einer möglichen Zukunft anstellen zu
können.

Während zur biologischen Evolution allgemein schon
einige Blogbeiträge geschrieben wurden, fehlt es im Blog
an konkreten Daten zur Entwicklung unmittelbar vor dem
Auftreten des homo sapiens, etwa in dem Zeitfenster -10
Mio Jahren bis ca. -30.000 Jahren vor dem Jahr 0. Dies
soll hier in einem ersten Beitrag nachgeholt werden.

II. WISSENSCHAFTLICHE SICHTWEISEN

Bei der Frage nach der Entwicklung des homo
sapiens spielen mehrere wissenschaftliche Disziplinen
ineinander. Einmal ist es die Geologie (Siehe: [WD17g]),
die den Kontext Erde untersucht; dann die Klimatologie
(Siehe: [WD17n]), die sich mit den klimatischen
Verhältnissen im Kontext Erde beschäftigt. Für das
Phänomen des Lebens selbst ist die Biologie zuständig,
speziell die Evolutionsbiologie (Siehe: [SWW13],
[WD17e]). Als Teil der Evolutionsbiologie sind noch
zu nennen die Molekularbiologie (Siehe: [WD17s]) mit
der Genetik (Siehe: [WD17f]). Ferner könnte man als
Teil der Evolutionsbiologie auch noch die Paläontologie
(Siehe: [WD17u], [Par15]) nennen und auch die
Archäologie (Siehe: [WD17a]). Wobei das Wechselspiel
von Evolutionsbiologie und Archäologie nicht ganz
so klar erscheint. Viele weitere wissenschaftliche
Disziplinen tauchen innerhalb der genannten Disziplinen
in unterschiedlichsten Kontexten auf.

Diese Vielfalt spiegelt ein wenig die Komplexität der
Phänomene wieder, um die es hier geht. Der Autor
cagent selbst betrachtet die hier zu verhandelnden
empirischen Phänomene aus Sicht der Philosophie
mit den Schwerpunkten Erkenntnisphilosophie, die
Überschneidungen hat mit Phänomenen wie z.B.
‚Lernen’ und ’Intelligenz’. Dies sind Themen, die
feste Orte auch in der Psychologie haben, heute
oft parallelisiert mit der Gehirnforschung (letztere
methodisch gesehen ein Teil der Biologie).

Angesichts dieser Komplexität ist es praktisch
unmöglich, ein völlig konsistentes, einheitliches Bild der
Phänomene zu zeichnen. An dieser Stelle ist es das
Anliegen von cagent, einen ’hinreichenden’ Überblick
über die ’unmittelbare’ Vorgeschichte des homo sapiens
zu bekommen.

Der homo sapiens ist jene biologische Art (Spezies),
die zur Gattung homo gerechnet wird, die sich aus
dem biologischen Formenstrom über Jahrmillionen
herausgeschält hat. Es zeigt sich, dass die zeitliche
Abgrenzung, wann genau ’das Menschliche’ anfängt,
und wann das ’Tierische’ aufhört, irgendwie beliebig
erscheint. Der homo sapiens ab ca. -30.000 besitzt
natürlich Eigenschaften, die wir beschreiben können
wie Körperbau, genetisch bestimmte Erbanlagen,
typische Verhaltensweisen, aber diese Eigenschaften
tauchen nicht abrupt in der Geschichte auf, sind nicht
irgendwann einfach so da, sondern man findet in
der vorausgehenden Zeit eine große Formenvielfalt
in den Artefakten, mit unterschiedlichen genetischen
Distanzen zum heutigen homo sapiens. Daraus muss
man schließen, dass es einen viele Millionen dauernden
Prozess des Formenwandels gab, innerlich genetisch
und äußerlich durch die jeweiligen geologischen und
klimatologischen Verhältnisse beeinflusst, die sich
zudem noch verknüpfen mit der jeweiligen Pflanzen- und
Tierwelt. Alle diese genannten Faktoren waren selbst
einem kontinuierlichen Wandel unterworfen.

Wenn die Grenzziehung zwischen dem ’Tierischen’
und dem ’Menschlichen’ von daher nicht ganz scharf
gezogen werden kann, ist auch eine Zeitangabe dazu,
wie weit zurück in der Zeit man gehen soll, um die
Vorgeschichte’ zu beschreiben, relativ, d.h. abhängig
von den Kriterien, die man bei der Analyse anlegen
will.

In diesem Beitrag wurde der Startpunkt für die
Beschreibung bei den Lebensformen gewählt, die die
Biologen ’Primaten’ nennen, und zwar spezieller den
Punkt der Aufspaltung in die Strepsirrhini und Haplorhini
(Siehe: [WE17l] und [WD17r]), die sich um etwa -80
Mio Jahren ereignet haben soll. Aus Sicht der heutigen
menschlichen Geschichte, wo 100 Jahre oder gar 1000
Jahre eine lange Zeit sind, wirken diese 80 Millionen
Jahre sehr, sehr lang. Innerhalb der Geschichte des
Lebens mit ca. 3.5 Milliarden Jahre fallen die 0.08 Mrd
Jahre seit dieser Aufspaltung nahezu kaum ins Gewicht,
es sind gerade mal 2.2% der gesamten Entwicklungszeit
des biologischen Lebens. Betrachtet man dagegen nur
die Zeit seit dem Auftreten der Lebensform homo, die
dem heute bekannten Menschlichem schon nahe kommt
(etwa ab -2.5 Mio), dann schrumpft der Zeitanteil auf
0.071 % der Entwicklungszeit des biologischen Lebens
zusammen. Umgerechnet auf das 12-Stunden Ziffernblatt
einer Uhr mit 720 Minuten würde die Entstehung der
Lebensform homo die letzte halbe Minute auf dem
Ziffernblatt ausmachen. Die Lebensform homo sapiens,
zu der wir uns zählen, tauchte frühestens um -190.000 in
Afrika auf. Das wären auf dem Ziffernblatt dann (bei ca.
81.000 Jahren pro Sekunde) die letzten 2.3 Sekunden.

Im Spiel des Lebens erscheint dies nicht viel. Betrachtet
man aber, was sich allein in den letzten ca. 10.000
Jahren ereignet hat, und hier speziell nochmals in den
letzten 100 Jahren, dann legt sich der Schluss nahe,
dass die Lebensform homo sapiens offensichtlich über
Fähigkeiten verfügt, die gegenüber der Vorgeschichte
von ca. 3.5 Mrd Jahren etwas qualitativ ganz Neues
sichtbar macht. Autor cagent ist sich nicht sicher,
ob der homo sapiens selbst bislang wirklich begreift,
was hier passiert, welche Rolle er in diesem Prozess
spielt. Auf der einen Seite zeichnet sich eine immer
größere Zerstörungskraft ab (die auch stattfindet), auf
der anderen Seite deuten sich konstruktive Potentiale
an, die alles übersteigen, was bislang vorstellbar war.

III. DEUTUNGEN: MATERIAL, MUSTER, FUNKTION, KONTEXTE

Die Tätigkeit der eingangs erwähnten Wissenschaft
kann man verstehen als eine Deutung, ausgeführt in
einem Deutungsprozess. Diese Deutung beginnt bei der
Bestimmung der Substanzen/ Materialien, die Forscher
vorfinden. Ist das eine Gesteinsart, sind das Knochen,
sind das pflanzliche Bestandteile …. ? Ein anderer
Aspekt ist die Frage nach ’Formen’ und ’Mustern’:
kann man an dem Material auffällige Formen oder
Muster erkennen, dann auch im Vergleich zu anderen
Materialien? Schließlich auch die Frage nach möglichen funktionalen Zusammenhängen’: wenn es ein Knochen
ist, in welchem Zusammenhang eines Knochengerüsts
kommt er vor? Wenn etwas ein Zahn sein soll, wie sah
das zugehörige Gebiss aus? Oder ist dieser Knochen Teil
eines Werkzeugs, einer zu unterstellenden Handlung,
die das Stück benutzt hat? Schließlich, in welchem
Kontext kommt ein Material vor? Ist es zufälliger Kontext,
ein Kontext durch einen geologischen Prozess, ein
Kontext erzeugt durch Verhalten von Lebewesen?
Schon bei diesen Fragen bieten sich eine Vielzahl von
Deutungsmöglichkeiten, bestehen viele Ungewissheiten.

IV. DEUTUNGEN 2: ZEITLICHE ABFOLGE

Was Forscher zur Evolutionsbiologie besonders
interessiert, ist das Erfassen von zeitlichen Abfolgen:
unter Voraussetzung eines bestimmten Zeitmaßes
möchte die Evolutionsbiologie wissen, ob ein
Gegenstand/ Artefakt A im Sinne des Zeitmaßes ‚vor’ oder ’nach’ einem anderen Gegenstand/ Artefakt B ‚anzuordnen’ ist.
Diese Frage macht nur Sinn, wenn man neben
einem definierten Zeitmaß auch annehmen darf
(muss), dass sich die Erde als Generalumgebung aller
vorfindbaren Materialien/ Artefakte grundsätzlich in
einem Veränderungsmodus befindet, dass also die
Erde zu zwei verschiedenen Zeitpunkten grundsätzlich
verschieden sein kann.

Dass sich am Kontext Erde Veränderungen feststellen
lassen, dies haben Menschen schon sehr früh erleben
können: Temperatur, Regen oder nicht Regen, Tag und
Nacht, Wachstum der Pflanzen, Geboren werden und
Sterben, usw. Es passierte aber erst im 17.Jahrhundert,
dass die Fragestellung nach dem Vorher und Nachher in
der Entwicklung der Gesteine mit Nils Stensen (nicolaus
steno) eine systematische Form fand, aus der sich nach
und nach die moderne Geologie entwickelte (Siehe:
[WD17h]).

Erst durch die wissenschaftliche Geologie wissen
wir zunehmend, dass die Erde selbst ein dynamisches
System ist, das sich beständig verändert, wo sich
ganze Kontinente bilden, verschieben, verformen; wo
Vulkanismus stattfindet, Erosion, Klimaänderungen, und
vieles mehr. Erst durch die geologische Sehweise konnte
man nicht nur verschiedene Zustände der Erde entlang
einem definierten Zeitmaß identifizieren, sondern damit
dann auch Veränderungen in der Zeit’ sichtbar machen.

Dieses geologische Wissen vorausgesetzt,  besteht
plötzlich die Möglichkeit, ein Material/ Artefakt einer
erdgeschichtlichen Phase, einem Zeitpunkt in einem
Veränderungsprozess, zuzuordnen. Die Geologie hat – mittlerweile unterstützt durch viele Spezialgebiete, wie z.B. auch die Klimatologie (Siehe:
[WD17n]) – unter anderem eine zeitliche Abfolge von
Vulkanausbrüchen in den verschiedenen Regionen
der Erde identifizieren können und auch das sich
verändernde Klima.

So spricht man in der Klimatologie von sogenannten
Eiszeitaltern’ (Siehe: [WD17d]). In der schwachen
Version einer Definition von Eiszeitalter geht man davon
aus, dass mindestens eine Polkappe vereist ist. Die
letzte Eiszeit dieser Art fand statt um -33.5 Mio Jahren.
In der starken Version geht man davon aus, dass beide
Polkappen vereist sind. Die letzte Eiszeit dieser Art
begann um ca. -2.7 Mio Jahren und hält bis heute
an. In dieser Zeit gab es unterschiedliche Kalt- und
Warm-Phasen. Seit ca. -1 Mio Jahren haben sich 6
mal Kaltzeiten wiederholt: ca. -0.9 Mio, -0.77 Mio, -0.6
Mio, -0.48 Mio, -0.35 Mio, -12.000 (siehe: [WD17o],
[Rot00]:SS.173ff ).

Ein anderer starker Faktor, der das Klima
beeinflussen kann, sind Supervulkanausbrüche
(Siehe: [WD17w]). Hier eine Zusammenstellung
von Eiszeitaltern mit Kaltphasen in Kombination mit
den Supervulkanausbrüchen sofern sie das frühe
Ausbreitungsgebiet von homo und homo sapiens berührt
haben (wobei auch andere große Ausbrüche sich
weltweit auswirken konnten)(man beachte, dass die
Zeitangaben mit großen Unschärfen versehen sind):

  • Eiszeit: ab ca. -2.7 Mio Jahren
  • Vulkan:-1 Mio Äthiopien
  • Vulkan: -788.000 Indonesien
  • Kaltzeit: ca. -0.77 Mio Jahren
  • Kaltzeit: ca. -0.6 Mio Jahren
  • Vulkan: -500.000 (+/- 60.000) Äthiopien
  • Kaltzeit: ca. -0.48 Mio Jahren
  • Vulkan: -374.000 Italien
  • Kaltzeit: ca. -0.35 Mio Jahren
  • Vulkan:-161.000 Griechenland
  • Vulkan: -74.000 Indonesien
  • Vulkan:-50.000 Italien
  • Vulkan:-39.000 Italien
  • Kaltzeit: ca. -12.000

Bei der Entstehung von Eiszeiten spielen eine Vielzahl
von Faktoren eine Rolle, die ineinandergreifen. Sofern
es sich um periodische Faktoren handelt, kann sich dies
auf den Periodencharakter von Kalt- und Warmzeiten
auswirken (siehe: [WD17o], [Rot00]:SS.173ff ). Die globale Erwärmung, die
aktuell beklagt wird, ist ein Ereignis innerhalb eines noch
existierenden Eiszeitalters. Insofern ist die Erwärmung
eigentlich keine Anomalie, sondern eher die Rückkehr
zum ’Normalzustand’ ohne Eiszeitalter. Wobei sich
natürlich die Frage stellt, welcher Zustand der Erde ist
eigentlich ’normal’? Kosmologisch betrachtet – und darin
eingebettet die Wissenschaften von der Erde – wird
die Erde in einem Zustand enden, der nach heutigem
Wissen absolut lebensfeindlich sein wird (siehe: [WD17p],
[WE17b], [WE17c]). Für die Erde ist dieser Zustand
normal’, weil es dem physikalischen Gang der Dinge
entspricht, aus Sicht der biologischen Lebensformen
ist dies natürlich überhaupt nicht ’normal’, es ist ganz
und gar ’fatal’.

Insofern wird hier schon deutlich, dass
die innere Logik des Phänomens ‚biologisches Leben‘
nicht automatisch kongruent ist mit einem aktuellen
Lebensraum. Das Phänomen des biologischen Lebens
manifestiert einen Anspruch auf Geltung, für den
es im Licht der physikalischen Kosmologie keinen
natürlichen’ Ort gibt. Das biologische Leben erscheint
von daher als eine Art ’Widerspruch’ zum bekannten
physikalischen Universum, obgleich es das physikalische
Universum ist, das das biologische Leben mit ermöglicht.

V. DEUTUNGEN 3: ENTWICKLUNG VON KOMPLEXITÄT

Wenn man so weit vorgestoßen ist, dass man
Materialien/ Artefakte auf einer Zeitachse anordnen kann,
dann kann man auch der Frage nachgehen, welche
möglichen Veränderungen sich entlang solch einer
Zeitachse beobachten lassen: Bleibt alles Gleich? Gibt
es Änderungen? Wie lassen sich diese Veränderungen
klassifizieren: werden die beobachtbaren Phänomene
einfacher’ oder ’komplexer’?

Um solche eine Klassifikation in ’einfach’ oder
komplex’ vorzunehmen, braucht man klare Kriterien für
diese Begriffe. Aktuell gibt es aber keine einheitliche, in
allen Disziplinen akzeptierte Definition von ’Komplexität’.

In der Informatik wird ein Phänomen relativ zu
einem vorausgesetzten Begriff eines ’Automaten’ als
komplex’ charakterisiert: je nachdem wie viel Zeit
solch ein Automat zur Berechnung eines Phänomens
benötigt oder wie viel Speicherplatz, wird ein Phänomen
als mehr oder weniger ’komplex’ eingestuft (Siehe
dazu: [GJ79]). Dieser vorausgesetzte Automat ist eine
sogenannte ’Turingmaschine’. Dieses Konzept entstand
in der Grundlagendiskussion der modernen Mathematik
um die Wende vom 19. zum 20.Jahrhundert, als sich
die Mathematiker (und Logiker) darüber stritten, unter
welchen Bedingungen ein mathematischer Beweis
für einen Menschen (!) als ’nachvollziehbar’ gelten
kann. Nach gut 30 Jahren heftigster Diskussionen fand
man mehrere mathematische Konzepte, die sich als
äquivalent erwiesen. Eines davon ist das Konzept der
Turingmaschine, und dieses gilt als das ’einfachste’
Konzept von allen, das sich seit 1936/7 bisher in
allen Widerlegungsversuchen als stabil erwiesen hat.
Dies ist zwar selbst kein unwiderleglicher logischer
Beweis, aber ein empirisches Faktum, was alle Experten
bislang glauben lässt, dass mit diesem Konzept eine
zentrale Eigenschaft des menschlichen Denkens
eine konzeptuelle Entsprechung gefunden hat, die
sich formal und empirische experimentell überprüfen
lässt. So, wie die Physiker zum Messen Standards
entwickelt haben wie das ’Kilogramm’, das ’Meter’
oder die ’Sekunde’, so haben die Informatiker zum
Messen der ’Komplexität’ eines Phänomens relativ zur
(menschlichen) Erkenntnisfähigkeit die ’Turingmaschine’
(samt all ihren äquivalenten Konzepten) gefunden. Der
Vorteil dieser Definition von Komplexität ist, dass man
über das zu klassifizierende Phänomen vorab nahezu
nichts wissen muss. Darüber hinaus macht es Sinn, das
menschliche Erkennen als Bezugspunkt zu wählen, da
die Frage der Komplexität jenseits des menschlichen
Erkennens keinen wirklichen Ort hat.

Zurück zum Ausgangspunkt, ob sich im ’Gang der
Dinge’ auf der Erde Phänomene erkennen lassen,
die ’im Lauf der Zeit’ an Komplexität zunehmen,
deutet sich Folgendes an: es scheint unbestritten,
dass die Beschreibung einer biologischen ’Zelle’
(siehe: [AJL+15]) einen erheblich größeren Aufwand
bedeutet als die Beschreibung eines einzelnen Moleküls.
Zellen bestehen aus Milliarden von Molekülen, die
in vielfältigsten funktionellen Zusammenhängen
miteinander wechselwirken. Der Übergang von einzelnen
Molekülen zu biologischen Zellen erscheint von daher
gewaltig, und es ist sicher kein Zufall, dass es bis heute
kein allgemein akzeptiertes Modell gibt, das diesen
Übergang vollständig und befriedigend beschreiben
kann.

Für den weiteren Verlauf der biologischen Evolution
gibt es zahllose Phänomene, bei denen eine Vielzahl
von Faktoren darauf hindeuten, dass es sich um eine
Zunahme von Komplexität’ im Vergleich zu einer
einzelnen Zelle handelt, wenngleich manche dieser
Komplexitäts-Zunahmen’ Milliarden oder hunderte von
Millionen Jahre gebraucht haben. Im Fall der Entwicklung
zum homo sapiens ab ca. -80 Millionen Jahre gibt es
auch solche Phänomene, die sich aber immer weniger
nur alleine im Substrat selbst, also im Körperbau
und im Gehirnbau, festmachen lassen, sondern wo
das ’Verhalten’ der Lebewesen ein Indikator ist für
immer komplexere Wechselwirkungen zwischen den
Lebewesen und ihrer Umwelt.

Der Körper des homo sapiens selbst umfasst ca.
37 Billionen (10^12) Körperzellen, dazu im Innern des
Körpers geschätzte ca. 100 Billionen Bakterien, und
zusätzlich auf der Körperoberfläche ca. 224 Milliarden
Bakterien (siehe dazu [Keg15]). Diese ca. 137 Billionen
Zellen entsprechen etwa 437 Galaxien im Format
der Milchstraße. Während Menschen beim Anblick
des Sternenhimmels zum Staunen neigen, bis hin
zu einer gewissen Ergriffenheit über die Größe (und
Schönheit) dieses Phänomens, nehmen wir einen
anderen menschlichen Körper kaum noch wahr (falls
er sich nicht irgendwie auffällig ’inszeniert’). Dabei
ist der menschliche Körper nicht nur 437 mal größer in seiner Komplexität
als die Milchstraße, sondern jede einzelne Zelle ist
ein autonomes Individuum, das mit den anderen auf
vielfältigste Weise interagiert und kommuniziert. So kann
eine einzelne Gehirnzelle bis zu 100.000 Verbindungen
zu anderen Zellen haben. Körperzellen können über
elektrische oder chemische Signale mit vielen Milliarden
anderer Zellen kommunizieren und sie beeinflussen.
Bakterien im Darm können über chemische Prozesse
Teile des Gehirns beeinflussen, das wiederum aufgrund dieser Signale Teile des
Körpers beeinflusst. Und vieles mehr. Obgleich
die Erfolge der modernen Wissenschaften in den letzten
20 Jahren geradezu atemberaubend waren, stehen wir
in der Erkenntnis der Komplexität des menschlichen
Körpers noch weitgehend am Anfang. Niemand hat
bislang eine umfassende, zusammenhängende Theorie.

Dazu kommen noch die vielen immer komplexer
werden Muster, die sich aus dem Verhalten von
Menschen (und der Natur) ergeben. Zusätzlich wird das Ganze
stark beeinflusst von modernen Technologi wie z.B. der
Digitalisierung.

VI. DEUTUNGEN4: SELBSTREFERENZ: CHANCE UND
RISIKO

Ist man also zur Erkenntnis einer Zunahme an
Komplexität vorgestoßen, gerät das Erkennen vermehrt
in einen gefährlichen Zustand. Das Erkennen von
Zunahmen an Komplexität setzt – nach heutigem
Wissensstand – symbolisch repräsentierte ’Modelle’
voraus, ’Theorien’, mittels deren das menschliche
(und auch das maschinelle) Denken Eigenschaften
und deren Anordnung samt möglichen Veränderungen
repräsentieren’. Sobald ein solches Modell vorliegt, kann
man damit die beobachteten Phänomene ’klassifizieren’
und in ’Abfolgen’ einordnen. Die ’Übereinstimmung’
von Modell und Phänomen erzeugt psychologisch ein
befriedigendes’ Gefühl. Und praktisch ergibt sich daraus
meist die Möglichkeit, zu ’planen’ und Zustände ’voraus
zu sagen’.

Je komplexer solche Modelle werden, um so größer
ist aber auch die Gefahr, dass man nicht mehr so leicht
erkennen kann, wann diese Modelle ’falsch’ sind. Solche
Modelle stellen Zusammenhänge (im Kopf oder in der
Maschine) her, die dann vom Kopf in die Wirklichkeit
außerhalb des Körpers ’hinein gesehen’ werden, und
mögliche Alternativen oder kleine Abweichungen können
nicht mehr so ohne weiteres wahrgenommen werden.
Dann hat sich in den Köpfen der Menschen ein bestimmtes
Bild der Wirklichkeit ’festgesetzt’, das auf Dauer
fatale Folgen haben kann. In der Geschichte der empirischen
Wissenschaften kann man diese Prozesse mit
zahlreichen Beispielen nachvollziehen (siehe den Klassiker:
[Kuh62]). Dies bedeutet, je umfassender Modelle
des Erkennens werden, um so schwieriger wird es auf
Dauer – zumindest für das aktuelle menschliche Gehirn
das ’Zutreffen’ oder ’Nicht-Zutreffen’ dieser Modelle
zu kontrollieren.

Nachdem mit dem Gödelschen ’Unentscheidbarkeitstheorem’
schon Grenzen des mathematischen Beweisens sichtbar wurden (Siehe: [WD17q]),
was dann mit der Heisenbergschen ’Unschärferelation’
(Siehe: [WD17j]) auf das empirischen Messen erweitert
wurde, kann es sein, dass das aktuelle menschliche
Gehirn eine natürliche Schranke für die Komplexität
möglicher Erklärungsmodelle bereit hält, die unserem
aktuellen Erkennen Grenzen setzt (Grenzen des Erkennens
werden im Alltag in der Regel schon weit vorher
durch psychologische und andere Besonderheiten des
Menschen geschaffen).

VII. PERIODISIERUNGEN: BIS HOMO SAPIENS

Wie schon angedeutet, ist das Vornehmen einer
Periodisierung ein Stück willkürlich. Autor cagent hat
den Zeitpunkt der Aufspaltung der Primaten um etwa
-80 Mio Jahren vor dem Jahr 0 gewählt. Dabei gilt
generell, dass solche Zeitangaben nur Näherungen sind,
da die zugehörigen Wandlungsprozesse sich immer als
Prozess über viele Millionen Jahre erstrecken (später
dann allerdings immer schneller).

Bei der Datierung von Artefakten (primär
Knochenfunden, dazu dann alle weiteren Faktoren,
die helfen können, den zeitlichen Kontext zu fixieren),
gibt es einmal den Ansatzpunkt über die äußere und
materielle Beschaffenheit der Artefakte, dann aber
auch – im Falle biologischer Lebensformen – den
Ansatzpunkt über die genetischen Strukturen und
deren Umformungslogik. Über die Genetik kann man
Ähnlichkeiten (Distanzen in einem Merkmalsraum)
zwischen Erbanlagen feststellen sowie eine ungefähre
Zeit berechnen, wie lange es gebraucht hat, um von
einer Erbanlage über genetische Umformungen zu
einer anderen Erbanlage zu kommen. Diese genetisch
basierten Modellrechnungen zu angenommenen Zeiten
sind noch nicht sehr genau, können aber helfen,
die Materie- und Formen-basierten Zeitangaben zu
ergänzen.

  • Ordnung: Primates (Siehe: [SWW13]:Kap.5.2)
    (Aufteilung ab ca. -80 Mio) –->Strepsirrhini (Lorisi-,
    Chiromyi-, Lemuriformes) und Haplorhini (Tarsier,
    Neu- und Altweltaffen (einschließlich Menschen))
    (Siehe: [SWW13]:S.428,S.432, S.435 [WE17l],
    [WD17r])
  • Unterordnung: Haplorrhini (Aufteilung ab ca. -60
    Mio) (Siehe: [WE17l]) –->Tarsiiformes und Simiiformes
    Nebenordnung: Simiiformes (Aufteilung ab ca. –
    42.6 Mio) -–>Platyrrhini (Neuwelt- oder Breitnasenaffen)
    und Catarrhini (Altwelt- oder Schmalnasenaffen)
    (Siehe: Siehe: [SWW13]:S.428, [WE17l])
  • Teilordnung: Catarrhini (Altwelt- oder Schmalnasenaffen)
    (Aufteilung ab ca. -29/-25 Mio) -–>Cercopithecoidea
    (Geschwänzte Altweltaffen) und Hominoidea
    (Menschenartige) (Siehe: Siehe: [WE17l] und
    [WD17r])

    • Überfamilie: Hominoidea (Menschenartige)
      (Aufteilung ab ca. -20 Mio/ -15 Mio) –>Hylobatidae
      (Gibbons)und Hominidae (Große Menschenaffen
      und Menschen) (Siehe: [WD17r])
    • Aufspaltung der Menschenaffen (Hominidae) in die
      asiatische und afrikanische Linie (ca. -11 Mio)
      (Siehe: [WD17r])

      • Familie: Hominidae (Menschenaffen)(Aufteilung ab
        ca. -15Mio/-13 Mio in Afrika) –>Ponginae (Orang-
        Utans) und Homininae (Siehe: [WD17r])

        • Unterfamilie: Homininae
          Aufteilung der Homininae (ab ca. -9 Mio/ -8 Mio) –>
          Tribus: Gorillini und Hominini (Siehe: [WE17d])

          • Gattung: Graecopithecus (Süden von Griechenland)
          • Spezies/ Art: Graecopithecus freybergi (Siehe: [WD17i]) (ca. -7.2 Mio)
          • Gattung: Sahelanthropus (ab ca. -7.0/ -6.0 Mio)
          • Spezies/ Art: Sahelanthropus tchadensis
            (Siehe: [WD17v] [WE17k]) (im Tschad)
        • Tribus (Stamm/ Tribe): Hominini
        • Aufteilung der Hominini (ab ca. -6.6/-4.2 Mio)
          (Siehe: [SWW13]:S.435, [WE17d]) -–>Pan
          (Schimpansen) und Homo (Die Lebensform
          Panina bildet einen Unterstamm zum
          Stamm ’homini’. Für die Trennung zwischen
          Schimpansen (Pan) und Menschen (Homo) wird
          ein komplexer Trennungsprozess angenommen,
          der viele Millionen Jahre gedauert hat. Aktuelle
          Schätzungen variieren zwischen ca. -12 Mio und
          -6-8 Mio Jahren (Siehe: [WE17a])

          • Gattung: Orrorin tugenensis (ab ca. -6.2 bis
            ca. -5.65 Mio) (Siehe: [WD17t])
          • Gattung: Ardipithecus (ab ca. -5.7 Mio bis ca.
            -4.4 Mio) (Siehe: [WD17b])
          • Gattung: Australopithecus anamensis (ab
            ca. -4.2 Mio bis ca. -3.9 Mio) (Siehe:
            [SWW13]:S.475f)
          • Gattung: Australopithecus (ab ca. -4 Mio bis
            ca. -2/-1.4 Mio) (Siehe: [SWW13]:S.475f)
          • Gattung: Australopithecus afarensis (ab
            ca. -3.5 Mio bis ca. -3 Mio) (Siehe:
            [SWW13]:S.476)
          • Gattung: Kenyanthropus platyops (ab ca. –
            3.5/ -3.3 Mio) (Siehe: [WD17m]) Kann
            möglicherweise auch dem Australopithecus
            zugerechnet werden (Siehe: [SWW13]:S.475,
            479).
          • Gattung: Australopithecus africanus (ab
            ca. -3.2 Mio bis ca. -2.5 Mio) (Siehe:
            [SWW13]:S.477)
          • Gattung: Australopithecus ghari (um ca.- 2.5
            Mio) (Siehe: [SWW13]:S.477)
          • Gattung: Paranthropus (Australopithecus)
            (ab ca. -2.7 Mio) (Siehe: [WE17j]).
            Kann möglicherweise auch dem
            Australopithecus zugerechnet werden (Siehe:
            [SWW13]:S.475).

            • Spezies/ Art: Paranthropus (Australopithecus)
              aethiopicus (ab ca. -2.6 Mio bis ca. -2.3
              Mio) (Siehe: [SWW13]:S.478)
            • Spezies/ Art: Paranthropus (Australopithecus)
              boisei (ab ca. -2.3 Mio bis ca. -1.4 Mio)
              (Siehe: [SWW13]:S.478). Mit dem Australopithecus
              boisei starb der Australopithecus
              vermutlich aus.
            • Spezies/ Art: Paranthropus (Australopithecus)
              robustus (ab ca. -1.8 Mio bis ca. -1.5
              Mio) (Siehe: [SWW13]:S.478)
          • Gattung: Homo (ab ca. -2.5/ -2.0 Mio).
            Im allgemeinen ist es schwierig, sehr klare
            Einteilungen bei den vielfältigen Funden
            vorzunehmen. Deswegen gibt es bei der
            Zuordnung der Funde zu bestimmten Mustern
            unterschiedliche Hypothesen verschiedener
            Forscher. Drei dieser Hypothesen seien hier
            explizit genannt:

            1. Kontinuitäts-Hypothese: In dieser Hypothese
              wird angenommen, dass es vom
              homo ergaster aus viele unterschiedliche
              Entwicklungszweige gegeben hat, die
              aber letztlich alle zum homo sapiens
              geführt haben. Die Vielfalt der Formen
              in den Funden reflektiert also so eine
              genetische Variabilität.
            2. Multiregionen-Hypothese: In dieser Hypothese
              wird angenommen, dass sich –
              ausgehend vom homo ergaster – regional
              ganz unterschiedliche Formen ausgebildet
              haben, die dann – bis auf den homo sapiens
              mit der Zeit ausgestorben sind
            3. Out-of-Africa Hypothese: Neben
              früheren Auswanderungen aus Afrika
              geht es in dieser Hypothese darum, dass
              sich nach allen neuesten Untersuchungen
              sagen lässt, dass alle heute lebenden
              Menschen genetisch zurückgehen auf
              den homo sapiens, der ca. um -100.000
              Jahren von Afrika aus kommend nach und
              nach alle Erdteile besiedelt hat (Siehe:
              [SWW13]:S.488ff, 499).

            Natürlich ist auch eine Kombination der ersten
            beiden Hypothesen möglich (und wahrscheinlich),
            da es zwischen den verschiedenen Formen
            immer wieder Vermischungen geben
            konnte.

          • Spezies/ Art: Homo rudolfensis (von
            ca. -2.4 bis ca. -1.8 Mio) (Siehe:
            [SWW13]:S.481)
          • Spezies/ Art: Homo habilis (von ca. -2.4 Mio bis ca. 1.65 Mio). Erste Art der Gattung Homo. Benutzte Steinwerkzeuge (Oldowan Kultur). Diese Artefakte sind
            nachweisbar für -2.5 bis -700.000 (Siehe: [SWW13]:S.480)
          • Gattung: Australopithecus sediba (um ca.
            -2 Mio) (Siehe: [SWW13]:S.477)
          • Spezies/ Art: Homo gautengensis (von ca.
            -1.9 Mio bis ca. -0.6 Mio)(Südafrika) (Siehe:
            [WE17h])
          • Spezies/ Art: Homo ergaster (von ca. -1.9
            Mio bis ca. -1.0 Mio) Werkzeuggebrauch
            wahrscheinlich, ebenso die Nutzung von
            Feuer (Lagerplätze mit Hinweisen um ca.
            -1.6 Mio). Stellung zu homo erectus unklar.
            (Siehe: [SWW13]:S.482f) Funde in
            Nordafrika (ca. -1.8 Mio), Südspanien (ca. –
            1.7-1.6 Mio und -1 Mio), Italien (ca. -1 Mio),
            Israel (ca. -2 Mio), Georgien (ca. -1.8 bis –
            1.7 Mio) und China (ca. -1.0 Mio) zeigen,
            dass homo ergaster sich schon sehr früh
            aus Afrika heraus bewegt hat.
          • Spezies/ Art: Homo erectus (Siehe:
            [WE17f]) (ab ca. -1.9 Mio bis ca. -85.000/
            -56.000); entwickelte sich vor allem in
            Asien (China, Java…), möglicherweise
            hervorgegangen aus dem homo ergaster.
            Ist fas zeitgleich zu homo ergaster in Afrika
            nachweisbar. Würde voraussetzen, dass
            homo ergaster in ca. 15.000 Jahren den
            Weg von Afrika nach Asien gefunden hat.
            (Siehe: [SWW13]:S.484-487)
          • Spezies/ Art: Homo antecessor (Siehe:
            [WE17e]) (von ca. -1.2 Mio bis –
            800.000). Hauptsächlich Funde in
            Nordafrika und Südspanien. Wird zur
            ersten Auswanderungswelle ’Out of Africa’
            gerechnet, die nach Europa und Asien kam.
            Letzte Klarheit fehlt noch. Es scheint viele
            Wechselwirkungen zwischen h.ergaster,
            h.erectus, h.antecessor, h.heidelbergensis,
            h.rhodesiensis, h.neanderthalensis sowie
            h.sapiens gegeben zu haben. (Siehe:
            [SWW13]:S.489)
          • Spezies/ Art ?: Homo cepranensis
            (Datierung zwischen ca. -880.000 bis
            ca.-440.000); (Siehe: [WD17k]) noch keine
            klare Einordnung (siehe Anmerkungen zu
            h.antecessor.)
          • Spezies/ Art: Homo heidelbergensis
            (Siehe: [WD17l]) (von ca. -600.000 bis
            -200.000). Überwiegend in Europa; es
            gibt viele Ähnlichkeiten mit Funden
            außerhalb von Europa in Afrika, Indien,
            China und Indonesien, z.B. Ähnlichkeiten
            zu homo rhodesiensis. Steinwerkzeuge,
            weit entwickelte Speere, Rundbauten,
            Feuerstellen, evtl. auch Kultstätten. (Siehe:
            [SWW13]:SS.490-493).
          • Spezies/ Art: Homo rhodesiensis (Siehe:
            [WE17i]) (von ca.-300.000 bis ca. –
            125.000)(Ost- und Nord-Afrika, speziell
            Zambia)
          • Spezies/ Art: Homo neanderthalensis
            (ab ca. -250.000 bis ca. -33.000). Frühe
            Formen und späte Formen. Genetische
            Eigenentwicklung seit ca. -350.000/ -400.000. Schwerpunkt Europa, aber Ausdehnung von Portugal, Spanien, bis
            Wales, Frankreich, England, Deutschland,
            Kroatien, schwarzes Meer, Nordirak,
            Zentralasien, Syrien, Israel . Meist nie
            mehr als insgesamt einige 10.000 in ganz
            Europa. In der Schlussphase parallel
            mit homo sapiens für ca. 50.000 Jahre.
            Es kam zu geringfügigen genetischen
            Beeinflussungen. Eine eigenständige
            hohe Werkzeugkultur, die aus der
            Steinwerkzeugkultur der Acheul´een ca.
            -200.000 hervorging und bis -40.000
            nachweisbar ist. Neben Steinwerkzeugen
            auch Schmuck. Sie pflegten Kranke,
            bestatteten ihre Toten. Die differenzierte
            Sozialstruktur, das gemeinsames Jagen,die
            Werkzeugkultur, das großes Gehirn
            sowie die Genbeschaffenheit lassen es
            wahrscheinlich erscheinen, dass der
            Neandertalerüber Sprache verfügte. Ein
            besonders kalter Klimaschub um -50.000
            verursachte einen starken Rückzug aus
            West- und Mitteleuropa, der dann wieder
            mit Einwanderer aus dem Osten gefüllt
            wurde. Im Bereich Israels/ Palästina gab
            es zwischen ca. -120.000 und -50.000
            eine Koexistenz von Neandertaler und
            homo sapiens. Was auch darauf hindeutet,
            dass eine erste Auswanderungswelle von
            h.sapiens schon um ca. -120.000/ -100.000
            stattgefunden hatte, aber nur bis Israel
            gekommen ist. Warum die Neandertaler
            ausstarben ist unbekannt. homo sapiens
            hat seine Population in Europa im Zeitraum
            -55.000 und -35.000 etwa verzehnfacht.
            (Siehe: [SWW13]:SS.493-498)
          • Spezies/ Art: Homo sapiens (ab ca. -190.000 bis heute); Wanderungsbewegungen aus Afrika heraus ab ca. -125.000
            erster Vorstoß bis Arabien. Parallel gab
            es eine kleine Auswanderung um -120.000
            über das Niltal bis Palästina/Israel, die
            aber keine weitere Expansion zeigte. Um
            -70.000 von Arabien aus in den Süden des mittleren Ostens, um ca. -60.000/ -50.000 nach Neuguinea und
            Australien. Vor ca. -50.000 bis -45.000 über
            Kleinasien nach Südost-, Süd- und Westeuropa.
            Um ca. -40.000 über Zentralasien
            bis Nordchina. Von Asien aus um -19.000/ -15.000 Einwanderung in Nordamerika über
            die Beringstraße, bis nach Südamerika um
            ca. -13.000. Es gibt aber auch die Hypothese,
            dass Südamerika schon früher
            (ca. -35.000 ?)über den Pazifik besiedelt
            wurde. Die Gene der Indianer in Nord- und
            Südamerika stimmen mit Menschen aus
            Sibirien, Nordasien und Südasien überein.
            Ab der Zeit -60.000/ -40.000 wird ein deutlicher
            kultureller Entwicklungssprung beim
            homo sapiens diagnostiziert, dessen Entwicklung
            seitdem anhält und sich heute
            noch erheblich beschleunigt. Felszeichnungen
            ab ca. -40.000, Werkzeuge, Wohnungen,
            Kleidung, Sprache.
          • Spezies/ Art: Homo floresiensis
            (Siehe: [WE17g])(ca. um -38.000 bis -12.000)(Insel Flores, Indonesien). Benutze Steinwerkzeuge, beherrschte das Feuer, Kleinwüchsig, entwickeltes Gehirn. Insel
            war seit mindestens -800.000 besiedelt.
            Vorfahren könnten seit -1 Mio dort gewesen
            sein. (Siehe: [SWW13]:S.487f)
          • Spezies/ Art: Denisovaner (noch kein
            wissenschaftlicher Name vereinbart)(um
            -40.000) (Siehe: [WD17c]), Funde im
            Altai Gebirge (Süd-Sibierien); es gibt
            Funde auf den Pilippinen, in Indonesien,
            Neuguinea, Australien, auf einigen Inseln
            des südlichen Pazifik, mit den Genen der
            Denisovaner. Herkunft möglicherweise von
            h.heidelbergensis. Es gab genetischen
            Austausch mit h.sapiens. (Siehe:
            [SWW13]:S.498)

VIII. WAS FOLGT AUS ALLEDEM?

Jeder, der diesen Text bis hierher gelesen haben
sollte, wird sich unwillkürlich fragen: Ja und, was heißt
das jetzt? Was folgt aus Alledem?

In der Tat ist dieser Text noch nicht abgeschlossen.

Der Text stellt allerdings eine notwendige
Vorüberlegung dar zu der – hoffentlich – weiter führenden
Frage nach der Besonderheit des homo sapiens als
Erfinder und Nutzer von intelligenten Maschinen.

Während die abschließende Definition von potentiell
intelligenten Maschinen mit dem mathematischen
Konzept der Turingmaschine im Prinzip vollständig
vorliegt, erscheint die Frage, wer oder was denn der
homo sapiens ist, je länger umso weniger klar. Mit
jedem Jahr empirischer Forschung (in allen Bereichen)
enthüllt sich scheibchenweise eine immer unfassbarere
Komplexität vor unseren Augen, die ein Verständnis
des homo sapiens samt seinem gesamten biologischen
Kontext eher in immer weitere Ferne zu rücken scheint.

Konnten die großen Offenbarungsreligionen über
viele Jahrhunderte irgendwie glauben, dass sie
eigentlich wissen, wer der Mensch ist (obwohl sie
nahezu nichts wussten), ist uns dies heute – wenn wir
die Wissenschaften ernst nehmen – immer weniger
möglich. Wenn im jüdisch-christlichen Glauben der
Mensch bildhaft als ’Ebenbild Gottes’ bezeichnet werden
konnte und damit – zumindest indirekt – angesichts
dieser unfassbaren Erhabenheit eine Art Schauer über
den Rücken jagen konnte (ohne dass zu dieser Zeit
verstehbar war, worin denn die Besonderheit genau
besteht), so werden wir in den letzten Jahren durch
immer tiefere Einblicke in die Abgründe der Komplexität
von Leben und Lebensprozessen in einem scheinbar
lebensfremden physikalischen Universum provoziert,
herausgefordert, und Gelegenheit zum Staunen gäbe es
allerdings genug.

In diesem anwachsenden Wissen um
unser Nichtwissen begegnen wir einer schwer fassbaren
Größe, die wir salopp ’biologisches Leben’ nennen, die
aber alles übersteigt, dessen wir denkerisch fähig sind.

Eine der vielen Paradoxien des Universums ist
genau dieses Faktum: in einem scheinbar ’leblosen’
physikalischen Universum ’zeigen sich’ materielle
Strukturen, die Eigenschaften besitzen, die es strikt
physikalisch eigentlich nicht geben dürfte, und die sich
in einer Weise verhalten, die das ganze Universum
prinzipiell zu einem ’Un-Ort’ machen: das bekannte
physikalische Universum ist lebensfeindlich, das
biologische Leben will aber genau das Gegenteil:
es will leben. Wie kann das zusammen gehen? Warum
kann ein scheinbar lebloses physikalisches Universum
Überhaupt der Ort sein, wo Leben entsteht, Leben
stattfinden will, Leben sich schrittweise dem inneren
Code des ganzen Universums bemächtigt?

In weiteren Beiträgen wird es darum gehen, dieses
Phänomen ’biologisches Leben’ weiter zu erhellen,
und zu zeigen, wie das biologische Leben sich mit
Hilfe intelligenter Maschinen nicht nur generell weiter
entwickeln wird, sondern diesen Prozess noch erheblich
beschleunigen kann. Es gilt hier die Arbeitshypothese,
dass die intelligenten Maschinen ein konsequentes
Produkt der biologischen Evolution sind und dass es
gerade dieser Kontext ist, der dieser Technologie ihre
eigentliche Zukunftsfähigkeit verleiht.

Die heutigen Tendenzen, die Technologie vom biologischen Leben
zu isolieren, sie in dieser Isolation zugleich in geradezu
religiöser Manier zu Überhöhen, wird die evolutionär
induzierte Entwicklung dieser Technologie eher
behindern, und damit auch das vitale Element der
biologischen Evolution, den homo sapiens.

Der homo sapiens ist kein Individuum, er wird
repräsentiert durch eine Population, die wiederum nur
Teil einer umfassenderen Population von Lebensformen
ist, die sich gegenseitig am und im Leben halten. Es wird
wichtig sein, dass der homo sapiens diese Arbeitsteilung
versteht, bevor er mit seiner wachsenden Aufbau- und
Zerstörungskraft das biologische Universum zu stark
beschädigt hat.

Zum aktuellen Zeitpunkt kann niemand mit Gewissheit
sagen, ob das alles irgendeinen ’Sinn’ besitzt, d.h. ob es
in all den Abläufen in der Zukunft eine Menge möglicher
Zielzustände gibt, die in irgendeinem Sinne als ’gut’/
’schön’/ ’erfüllend’ oder dergleichen bezeichnet werden
können. Genauso wenig kann aber irgend jemand zum
aktuellen Zeitpunkt mit Gewissheit einen solchen Sinn
ausschließen. Rein empirisch kann man schon heute
eine solche Menge an atemberaubenden Strukturen und
Zusammenhänge erfassen, die ’aus sich heraus’ ein
Exemplar der Gattung homo sapiens in ’Erstaunen’ und
’Begeisterung’ versetzen können; aber weder gibt es für
solch ein Erstaunen einen Zwang, eine Regel, ein Muss,
noch ist all dies ’zwingend’. Noch immer können wir
nicht ausschließen, dass dies alles nur ein Spiel ist,
eine gigantische kosmologische Gaukelei, oder – wie
es die physikalischen kosmologischen Theorien nahelegen
– in einem gigantischen Kollaps endet, aus der
möglicherweise wieder ein Universum entsteht, aber ein
anderes.

REFERENCES

  • [AJL+15] B. Alberts, A. Johnson, J. Lewis, D. Morgan, M. Raff,
    K. Roberts, and P. Walter.Molecular Biology of the Cell.
    Garland Science, Taylor & Francis Group, LLC, Abington
    (UK) – New York, 6 edition, 2015.
  • [GJ79] Michael R. Garey and David S. Johnson.Computers and
    Intractibility. A Guide to the Theory of NP.Completeness.
    W.H. Freeman an Company, San Francisco (US), 1 edition,
    1979.
  • [Keg15] Bernhard Kegel.Die Herrscher der Welt. DuMont, Köln (DE),
    1 edition, 2015.
  • [Kuh62] Thonas S. Kuhn.The Structure of Scientific Revolutions.
    University of Chicago Press, Chicago (US), 1 edition, 1962.
  • [Par15] Hermann Parzinger.DIE KINDER DES PROMETHEUS.
    Geschichte der Menschheit vor der Erfindung der Schrift.
    Wissenschaftliche Buchgesellschaft, Darmstadt (DE), 2 edition,
    2015.
  • [Rot00] Peter Rothe.Erdgeschichte. Spurensuche im Gestein. Wissenschaftliche
    Buchgesellschaft, Darmstaadt (DE), 1 edition, 2000.
  • [SWW13] Volker Storch, Ulrich Welsch, and Michael Wink, editors.
    Evolutionsbiologie. Springer-Verlag, Berlin – Heidelberg, 3 edition, 2013.
  • [WD17a] Wikipedia-DE. Archäologie. 2017.
  • [WD17b] Wikipedia-DE. Ardipithecus. 2017.
  • [WD17c] Wikipedia-DE. Denisova-mensch. 2017.
  • [WD17d] Wikipedia-DE. Eiszeitalter. 2017.
  • [WD17e] Wikipedia-DE. Evolutionsbiologie. 2017.
  • [WD17f] Wikipedia-DE. Genetik. 2017.
  • [WD17g] Wikipedia-DE. Geologie. 2017.
  • [WD17h] Wikipedia-DE. Geschichte der geologie. 2017.
  • [WD17i] Wikipedia-DE. Graecopithecus freybergi. 2017.
  • [WD17j] Wikipedia-DE. Heisenbergsche unschärferelation. 2017.
  • [WD17k] Wikipedia-DE. Homo cepranensis. 2017.
  • [WD17l] Wikipedia-DE. Homo heidelbergensis. 2017.
  • [WD17m] Wikipedia-DE. Kenyanthropus platyops. 2017.
  • [WD17n] Wikipedia-DE. Klimatologie. 2017.
  • [WD17o] Wikipedia-DE. Känozoisches eiszeitalter. 2017.
  • [WD17p] Wikipedia-DE. Kosmologie. 2017.
  • [WD17q] Wikipedia-DE. Kurt gödel. 2017.
  • [WD17r] Wikipedia-DE. Menschenaffen. 2017.
  • [WD17s] Wikipedia-DE. Molekularbiologie. 2017.
  • [WD17t] Wikipedia-DE. Orrorin tugenensis. 2017.
  • [WD17u] Wikipedia-DE. Paläontologie. 2017.
  • [WD17v] Wikipedia-DE. Sahelanthropus tchadensis. 2017.
  • [WD17w] Wikipedia-DE. Supervulkan. 2017.
  • [WE17a] Wikipedia-EN. chimpanzee–human last common ancestor
    (chlca). 2017.
  • [WE17b] Wikipedia-EN. Cosmology. 2017.
  • [WE17c] Wikipedia-EN. Earth science. 2017.
  • [WE17d] Wikipedia-EN. Homininae. 2017.
  • [WE17e] Wikipedia-EN. Homo antecessor. 2017.
  • [WE17f] Wikipedia-EN. Homo erectus. 2017.
  • [WE17g] Wikipedia-EN. Homo floresiensis. 2017.
  • [WE17h] Wikipedia-EN. Homo gautengensis. 2017.
  • [WE17i] Wikipedia-EN. Homo rhodesiensis. 2017.
  • [WE17j] Wikipedia-EN. Paranthropus. 2017.
  • [WE17k] Wikipedia-EN. Sahelanthropus tchadensis. 2017.
  • [WE17l] Wikipedia-EN. Simian. 2017.

Eine FORTSETZUNG findet sich HIER.

VIII. KONTEXTE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

KÜNSTLICHE INTELLIGENZ – Newell und Simon 1976

PDF

IDEE

Im Jahr 2017 nimmt die Erwähnung von sogenannter Künstlicher Intelligenz außerhalb der Wissenschaften, im öffentlichen Bereich, fast inflatorisch zu. Zugleich muss man feststellen, dass Erklärungen des Begriffs ‚Künstliche Intelligenz‘ wie auch anderer Begriffe in seinem Umfeld Mangelware sind. Es wird daher ab jetzt mehr Blogeinträge geben, die auf diese Thematik gezielter eingehen werden. Hier ein erster Beitrag mit Erinnerung an einen wichtigen Artikel von Newell and Simon 1976.

I. INFORMATIK ALS EMPIRISCHE WISSENSCHAFT

Informatik als empirische Disziplin (nach Newell und Simon, 1976)

Informatik als empirische Disziplin (nach Newell und Simon, 1976)

Im Jahr 1975 empfingen Allen Newell und Herbert A.Simon den angesehenen ACM Turing Preis von der ACM aufgrund ihrer vielen wichtigen Beiträge zur Künstlichen Intelligenzforschung in den vorausgehenden Jahren. Die Preisrede beider Autoren wurde in den Communications of the ACM 1976 abgedruckt (siehe: NewellSimon:1976).

In dieser Rede wagen die Autoren eine generelle Sicht auf die Informatik (‚computer science‘), die Akzente erkennen lässt, die von heutigen Auffassungen von Informatik — zumindest wie sie in Deutschland üblich sind — doch deutlich abweicht.

Für die beiden Autoren ist die Informatik eine empirische Wissenschaft, deren Interesse darin besteht, das Verhalten von Menschen, dort, wo es Intelligenz erkennen lässt, in ein theoretisches Modell zu übersetzen, das sich dann als eine konkrete Maschine (ein Computer, ein Roboter) physikalisch realisieren lässt. Man kann dann diese konkrete Maschine dazu benutzen, Tests durchzuführen, durch die man überprüfen kann, ob sich die gebaute Maschine hinreichend ähnlich wie ein Mensch verhält oder aber davon deutlich abweicht. Liegen Abweichungen vor, dann muss man den Sachverhalt weiter ergründen und versuchen, ob man das theoretische Modell verbessern kann.

Für sie erscheint der Mensch als eine Art Standardmodell für Intelligenz, allerdings nicht so, dass man den Begriff ‚Intelligenz‘ mit einer einzigen Verhaltensweise oder mit einem einzigen Prinzip identifizieren könnte. Das vielfältige menschliche Verhalten verweist nach den Autoren vielmehr auf eine Vielzahl von Komponenten, deren Zusammenwirken zu einem als ‚intelligent‘ wirkenden Verhalten führt. Für das Erkennen einer möglichen ‚Intelligenz‘ ist es ferner wichtig, dass man den ganzen Kontext berücksichtigt, in dem spezifische Aufgaben vorliegen, die gelöst werden sollten.

Durch ihre Forschungsarbeiten zu symbolischen Systemen und zur heuristischen Suche haben Newell und Simon herausgefunden, dass die Klärung eines Problemraumes nur dann besser als zufällig sein kann, wenn der Problemraum minimale Regelhaftigkeiten, eine minimale Ordnung aufweist, die — sofern sie erkannt wurde — dann in Form spezieller Informationen angesammelt werden kann und dann, nach Bedarf, bei der Klärung des Problemraumes genutzt werden kann. Und es ist genau diese spezifische angesammelte Information die die Autoren mit Intelligenz gleichsetzen! Ein Mensch kann nur dann gezielter, schneller eine Aufgabe lösen, wenn er über spezielle Informationen (Wissen) verfügt, die ihn in die Lage versetzen, genau jene Verhaltensweisen zu zeigen, die schnell und effizient zum Ziel führen.

Überträgt man dies auf die theoretischen Modelle der Informatik, dann muss man Wege finden, spezifisches Bereichswissen (engl.: ‚domain knowledge‘) für ein intelligentes Verhalten in geeignete Datenstrukturen und Prozesse zu übersetzen. Auf die vielen Beispiele und Details zu diesen Überlegungen wird hier verzichtet [diese kann jeder in dem Artikel nachlesen ….].

II. DISKURS

Hier einige Überlegungen im Anschluss an den Artikel von Newell und Simon.

A. Intelligenz

Zunächst ist interessant, dass die Verwendung des Begriffs ‚Intelligenz‘ gebunden wird an das Verhalten von Menschen, wodurch der Mensch als undiskutierter Maßstab für mögliche Intelligenz gesetzt wird.

Daraus folgt nicht notwendigerweise, dass es jenseits des Menschen keine andere Formen von Intelligenz gibt, sondern nur, dass man den Typ von Intelligenz, der beim Menschen vorliegt und sichtbar wird, vorläufig als Standard benutzen möchte. Also eine Intelligenz mit Index: Intelligenz_human.

Das macht auch verständlich, dass man als wichtige empirische Wissenschaft in Begleitung der Informatik die kognitive Psychologie sieht, die sich u.a. auch mit der sogenannten ‚Informationsverarbeitung im Menschen‘ beschäftigt.

Es wundert dann allerdings, dass die Autoren den im Rahmen der Psychologie eingeführten Begriff des Intelligenz-Quotienten (IQ) samt den dazugehörigen erprobten Messverfahren nicht benutzen, nicht einmal erwähnen. Dies würde die Möglichkeit eröffnen, die Verhaltensleistung von technischen Systemen entsprechend zu messen und direkt mit Menschen zu vergleichen. Der oft zitierte Turing-Test (nicht von den beiden Autoren) ist verglichen mit den Testbatterien des IQ-Quotienten mehr als dürftig und nahezu unbrauchbar.

Durch den Verzicht auf die sehr detailliert ausgearbeiteten Testbatterien der Psychologie bleibt die Charakterisierung des Begriffs ‚Intelligenz‘ in der Informatik weitgehend vage, fast beliebig.

An dieser Stelle könnte man einwenden, dass in der Informatik andere Aufgabenstellungen untersucht werden als in der Psychologie üblich bzw. andere Aufgabenstellung, die Menschen in dieser Weise nicht angehen, dadurch wir die Verwendung des Begriffs ‚Intelligenz‘ aber noch undurchsichtiger, geradezu ominös.

Obgleich Newell und Simon betonen, dass sie die Informatik als eine empirische Theorie sehen, bleibt der ganze Komplex des tatsächlichen objektiven Messens etwas vage. Zum objektiven Messen gehören zuvor vereinbarte Standards, die beim Messen als Referenzen benutzt werden, um ein Zielobjekt zu ‚vermessen‘. Wenn das zu messende Zielobjekt ein Verhalten sein soll (nämlich das Verhalten von Maschinen), dann muss zuvor sehr klar definiert sein, was denn das Referenz-Verhalten von Menschen ist, das in einem (welchen?) Sinn als ‚intelligent‘ angesehen wird und das dazu benutzt wird, um das Maschinenverhalten damit zu vergleichen. Es ist weder bei Newell und Simon klar zu sehen, wie sie ihr Referenzverhalten von Menschen zuvor klar definiert haben, noch sind die Messprozeduren klar.

Der grundsätzliche Ansatz von Newell und Simon mit der Informatik als empirischer Disziplin (zumindest für den Bereich ‚Intelligenz) erscheint auch heute noch interessant. Allerdings ist das begriffliche Chaos im Kontext der Verwendung des Begriffs ‚Intelligenz‘ heute zu einem notorischen Dauerzustand geworden, der es in der Regel unmöglich macht, den Begriff von ‚künstlicher Intelligenz‘ in einem wissenschaftlichen Sinne zu benutzen. Jeder benutzt ihn heute gerade mal, wie es ihm passt, ohne dass man sich noch die Mühe macht, diese Verwendung irgendwie transparent zu machen.

B. Lernen

Während Newell und Simon im Fall des Begriffs ‚Intelligenz‘ zumindest ansatzweise versuchen, zu erklären, was sie damit meinen, steht es um den Begriff ‚Lernen‘ ganz schlecht.

Explizit kommt der Begriff ‚Lernen‘ bei den Autoren nicht vor, nur indirekt. Dort wo heuristische Suchprozesse beschrieben werden, die mit Hilfe von symbolischen Systemen geleistet werden, stellen sie fest, dass man aufgrund ihrer empirischen Experimente wohl (in dem theoretischen Modell) annehmen muss, dass man Informationen speichern und verändern können muss, um zu jenem Wissen kommen zu können, das dann ein optimiertes = intelligentes Verhalten ermöglicht.

Aus psychologischen Lerntheorien wissen wir, dass ‚Intelligenz‘ und ‚Lernen‘ zwei unterschiedliche Eigenschaften eines Systems sind. Ein System kann wenig intelligent sein und doch lernfähig, und es kann sehr intelligent sein und doch nicht lernfähig.

Nimmt man die Charakterisierung von Newell und Simon für ‚Intelligenz‘ dann handelt es sich um ein ’spezielles Wissen‘ zum Aufgabenraum, der das System in die Lage versetzt, durch ein ‚gezieltes Verhalten‘ schneller ans Ziel zu kommen als durch rein zufälliges Verhalten. Eine solche Intelligenz kann einem System zur Verfügung stehen, auch ohne Lernen, z.B. (i) bei biologischen Systemen als eine genetisch vererbte Verhaltensstruktur; (ii) bei technischen Systemen durch eine volle Konfiguration durch Ingenieure. Bei biologischen Systeme tritt allerdings ‚Intelligenz‘ nie isoliert auf sondern immer in Nachbarschaft zu einer Lernfähigkeit, weil die dynamische Umwelt biologischer Systeme beständig neue Anpassungen verlangt, die nicht alle vorher gesehen werden können. Im Fall technischer Systeme mit begrenzter Lebensdauer und definiertem Einsatz war dies (und ist dies) weitgehend möglich.

Wenn man von ‚Künstlicher Intelligenz‘ spricht sollte man daher die beiden Strukturen ‚Intelligenz‘ und ‚Lernen‘ sehr klar auseinander halten. Die Fähigkeit, etwas zu lernen, erfordert völlig andere Eigenschaften als die Struktur eines Wissens, durch das ein System sich ‚intelligent‘ statt ‚zufällig‘ verhalten kann.

C. Theorie

Die Forderung von Newell und Simon, die Informatik als eine ‚empirische Wissenschaft‘ zu betrachten, die richtige theoretische Modelle (= Theorien) konstruiert und diese über realisierte Modelle dann empirisch überprüft, hat im Rahmen des allgemeinen Systems Engineerings auch heute noch einen möglichen Prozess-Rahmen, der alle diese Forderungen einlösen kann. Allerdings hat es sich in der Informatik eingebürgert, dass die Informatik einen Sonderweg kreiert hat, der unter der Überschrift Softwareengineering zwar Teilaspekte des generellen Systemsengineerings abbildet, aber eben nur Teilaspekte; außerdem ist durch die Beschränkung auf die Software ohne die Hardware ein wesentlicher Aspekt des Gesamtkonzepts Computer ausgeklammert. Ferner ist der harte Aspekt einer vollen empirischen Theorie durch die Phasenbildungen ‚logisches Design‘ nur unvollständig abgebildet. Designmodelle sind kein Ersatz für eine richtige Theorie. Für das sogenannte ‚modellgetriebene Entwickeln‘ gilt das Gleiche.

D. Mensch als Maßstab

War es noch für Newell und Simon offensichtlich klar, dass man für den Begriff ‚Intelligenz‘ den Menschen als Referenzmodell benutzt, so ist dies in der heutigen Informatik weitgehend abhanden gekommen. Dies hat einmal damit zu tun, dass der Wissenschaftsbegriff der Informatik samt der meisten Methoden bislang nicht in den allgemeinen, üblichen Wissenschaftsbegriff integriert ist, zum anderen dadurch, dass die Aufgaben, die die intelligenten Maschinen lösen sollen, aus allen möglichen ad-hoc Situationen ausgewählt werden, diese keinen systematischen Zusammenhang bilden, und man in den meisten Fällen gar nicht weiß, wie man den Bezug zum Menschen herstellen könnte. Dadurch entsteht der vage Eindruck, dass die ‚Intelligenz‘ der künstlichen Intelligenzforschung irgendwie etwas anderes ist als die menschliche Intelligenz, von der menschlichen Intelligenz möglicherweise sogar ganz unabhängig ist. Man macht sich allerdings nicht die Mühe, systematisch und zusammenhängend die Verwendung des Begriffs der ‚Intelligenz‘ in der Informatik zu klären. Aktuell hat man den Eindruck, dass jeder gerade mal das behauptet, was ihm gerade gefällt. Auch eine Art von Fake News. Die Marketingabteilungen der großen Konzerne freut es, weil sie nach Belieben alles Versprechen können, was sie wollen, ohne dass irgendjemand sinnvoll nachprüfen kann, was das genau ist, ob das überhaupt geht.

Doch sollte man sich durch diese terminologische Unklarheiten, die auf eine fehlende wissenschaftliche Methodik der Informatik zurück zu führen sind, nicht davon ablenken lassen, zu konstatieren, dass trotz chaotischer Begrifflichkeit im Konkreten und Im Detail seit Newell und Simon 1976 extreme Fortschritte gemacht wurden in speziellen Algorithmen und spezieller Hardware, mit der man heute viel mehr realisieren kann, als sich Newell und Simon damals hätten träumen lassen. Die Vorteile, die man sich durch diese Fortschritte im Konkreten erarbeitet hat, werden aber weitgehend verspielt durch große Theoriedefizite, die zu gerade kuriosen Anschauungen und kuriosen Forschungsprojekten führen. In der KI ist dies aber nichts Neues: es gab sehr unterschiedliche Phasen; alle Fehler führten irgendwann dann doch zu verbesserten Einsichten.

QUELLE

Allen Newell and Herbert A. Simon. Computer science as empirical inquiry: Symbols and search. Communications of the ACM, 19(3):113–126, 1976.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

REDAKTIONELLES – NEUE AUTOREN – THEMENFELDER – KRITERIEN

NEUER AUTOR

1. Aus Anlass eines neuen Autors, der sich aus eigener Initiative in den Diskurs in diesem Blog eingebracht hat, hier einige Bemerkungen, wie sich der Blog aus redaktioneller Hinsicht sieht.

BLICKRICHTUNG DES BLOGS

2. Die Blickrichtung des Blogs ist die der Philosophie auf das Spannungsfeld zwischen dem homo sapiens und der vom Menschen initiierten Kultur und Technik, speziell der Technologie der intelligenten Maschinen. Welche Zukunft hat der homo sapiens auf der Erde, im bekannten Universum, und speziell im Wechselspiel mit den intelligenten Maschinen? Wie müssen wir, die wir Exemplare der Lebensform homo sapiens sind, uns selbst sehen? Welche Bilder beschreiben uns angemessen, welche nicht?

EMPIRISCHE ERKENNTNISQUELLEN

3. Antworten auf diese Fragen bieten nahezu alle wissenschaftlichen Disziplinen, die es zur Zeit gibt. Allerdings ist eine wissenschaftliche Disziplin – wenn sie sich denn wirklich als empirische Wissenschaft versteht – rein methodisch an eine eingeschränkte Sicht auf die Wirklichkeit unter Anwendung ganz bestimmter Methoden gebunden. Dies hat viele Vorteile, aber auch Nachteile. Die Nachteile bestehen darin, dass die erfahrbare Welt als solche eine Einheit bildet, die in sich unfassbar verwoben ist. Die einzelnen Disziplinen können aber nur Fragmente liefern. Dies reicht heute immer weniger. Mit dem immer weiteren Voranschreiten der einzelnen Disziplinen brauchen wir immer dringender auch Blicke auf Zusammenhänge.

INTERDISZIPLINARITÄT IST EIN FAKE

4. Hier gibt es das Zauberwort von der Interdisziplinarität: verschiedene Disziplinen arbeiten gemeinsam an einer Problemstellung. Aus der Nähe betrachtet ist dies aber nur eine Scheinlösung. Wenn Vertreter aus mehreren Einzeldisziplinen A, B, C aufeinandertreffen, entsteht nicht automatisch eine integrierte Sicht V(A,B,C), in der von einem höheren Reflexionsniveau auf diese Einzeldisziplinen geschaut wird. In der Praxis gibt es erst einmal drei Sichten A, B, C, jeder redet auf den anderen ein und hofft, der andere versteht, was man sagt. Das funktioniert aber im Normalfall nicht. Es gibt viel Verwirrung und Frustration und man ist froh, wenn man wieder für sich alleine weiter arbeiten kann. Wenn es dann doch irgendwo leidlich funktioniert, dann nur deswegen, weil die Beteiligten über besonders gute empathische Fähigkeiten verfügen, sich besonders viel Zeit nehmen, die anderen Positionen zu verstehen, und wenigstens eine(r) dabei ist, der irgendwie übergeordnete Gesichtspunkte formulieren kann, ad hoc.

NORMIERTE VORGEHENSMODELLE

5. In der Industrie funktioniert dies nur dann, wenn sich alle auf ein gemeinsames Vorgehensmodell geeinigt haben, das auf allen Ebenen Vorgehensweisen und Ausdrucksmittel normiert hat. Diese Vorgehensmodelle (z.B. in der Art des Systems Engineerings im englischsprachigen Raum) funktionieren aber nur, wenn es Menschen gibt, die 20 – 30 Jahre Berufserfahrung haben, um die Methoden und Begrifflichkeiten zu verstehen, und selbst dann ist das gemeinsame Verständnis sehr fragil: die Verrechnung der komplexen Wirklichkeit in begrifflich normierte Modelle kann aus verschiedenen Gründen nicht funktionieren. Aber die Industrie hat hier in der Regel keine Wahl: sie muss liefern und kann sich nicht auf philosophische Dispute einlassen.

ALTERNATIVE BLOG

6. In diesem Blog ist das anders: der Blog muss nicht liefern. Wir leisten uns hier den Luxus, Fragen als Fragen zuzulassen, und wir erlauben uns, eine Suche zu starten, wenn gesucht werden muss. Die Erfahrung des Scheiterns ist mindestens so wertvoll wie scheinbare Lösungen. Hier muss keine herrschende Meinung bedient werden.
7. Hier geht es nicht um dumpfe Interdisziplinarität, sondern um eine offene philosophische Reflexion auf die Unterschiede der einzelnen Disziplinen und die Frage, wie man die verschiedenen Sichten zusammen bringen könnte. Zeitschriften für einzelwissenschaftliche Höchstleistungen gibt es genug. Hier geht es um die Reflexion auf die einzelwissenschaftliche Leistung und die Frage, wie stehen z.B. biologische, psychologische und soziologische Ergebnisse in einem Zusammenhang? Wie soll man den homo sapiens verstehen, der molekularbiologisch aus kleinen chemischen Maschinen, den Zellen besteht, die sich aber aus Molekülen erst entwickeln mussten, und dann eine wahnwitzige Entwicklungsgeschichte von 3.8 Mrd Jahren bis zu einer Lebensform, die u.a. über die Fähigkeit verfügt, Zeit wahrnehmen zu können, abstrakte Strukturen denken kann, das sich mittels banaler physikalischer Ereignisse (Schall) koordinieren kann, Kultur hervorbringt, Technik? Wie soll man die Fähigkeit des Denkens beschreiben, die neuronale Korrelate zu haben scheint, zugleich aber nur introspektiv direkt erfahrbar ist? Usw.

EUROPÄISCHES SCHISMA

8. Leider gab es in der Kulturgeschichte Europas eine folgenschwere Trennung der Art, dass sich die neu aufkommenden empirischen Wissenschaften in hunderten von Jahren von der Philosophie getrennt haben und auch umgekehrt, die Philosophie diese Trennung mit kultiviert hat, anstatt in den aufkommenden empirischen Wissenschaften die großartige Chance zu sehen, die ihre oft faktenleeren aber methodisch umfassenden Reflexionen unter Einbeziehung der empirischen Wissenschaften anzureichern. Leider gehört es bei vielen sogenannten Philosophen immer noch zum guten Ton, auf die empirischen Disziplinen als geistloses Treiben herab zu schauen; dabei übersehen die Philosophen, dass es genau ihr Job wäre, die fantastischen Ergebnisse der Einzeldisziplinen aufzugreifen, ‚beim Wort zu nehmen‘, und sie in leistungsfähige begriffliche Systeme einzuordnen, die in der Lage wären, diese Vielfalt in einer begründeten Einheit zum Leuchten zu bringen.
9. Die sogenannte Interdisziplinarität ist vor diesem Hintergrund ein andauerndes Ärgernis: es wird so getan, als ob das Zusammensperren von verschiedenen Experten in einen Raum automatisch eine begründete Zusammenschau liefern würde. Eine Unzahl von Forschungsprojekten mit EU-Geldern, in denen Interdisziplinarität erzwungen wird ohne dass man den methodischen und diskursiven Raum mit liefert, ohne dass die Beteiligten eine entsprechende Ausbildung haben, kann davon milliardenschwer künden.

ANDERE UNIVERSITÄTEN

10. Was wir bräuchten wären Universitäten, in denen jeder Studierende einer Einzelwissenschaft grundsätzlich auch lernt, wie man im Rahmen einer Wissenschaftsphilosophie das Vorgehen und das Reden einzelner Disziplinen in einen denkerisch begründeten Zusammenhang einordnen und bewerten kann. Dies würde voraussetzen, dass es Professoren gibt, die über diese Fähigkeiten verfügen und über Lehrpläne, in denen dies vorgesehen ist. Beides gibt es nicht. Der normale Professor an deutschen Universitäten hat von wissenschaftsphilosophischen Konzepten noch nie etwas gehört und aufgrund eines sehr eingeschränkten Effiziensdenkens (und einer leider immer schlimmer werden Konkurrenz um finanzielle Mittel) im universitären Bereich sind solche Lernprozesse nicht vorgesehen. Es ist auch nicht absehbar, dass sich dies in den nächsten 10-20 Jahren grundlegend ändern würde. Dazu müsste es Professoren geben, die das selbst lernen, aber wer soll sie ausbilden?

DER BLOG

11. Dieser Blog steht angesichts der allgemeinen universitären Situation mit seinem Anliegen daher eher alleine dar. Autoren, die einzelwissenschaftliche Erkenntnisse (z.B. in der eigenen Disziplin) in einem größeren Zusammenhang reflektieren, sind wunderbare Ausnahmen. Solche Autoren sind hier willkommen.
12. Mit dem Autor hardbern hat ein weiterer Autor den Mut, den dringend notwendigen Diskurs über den homo sapiens und seine Zukunft auf zu nehmen. Es wäre schön, wenn es weitere solche Autoren geben würde. Natürlich wird sich damit auch der Diskurs außerhalb des Blogs in Form von direkten Gesprächen, Vortragsdiskussionen, Workshops und ähnlichen weiter ausbilden.
13. Der Initiator dieses Blogs, cagent, ist seit 1.April 2017 emeritiert. Dies bietet die Möglichkeit, den Blog nicht nur neben einem vollen Arbeitsprogramm zu betreiben, sondern sich den Inhalten und potentiellen Autoren intensiver zu widmen. Z.B. denkt er darüber nach, künftig gezielt verschiedene ausgewiesene Experten zu den Fragen des Blogs direkt anzusprechen. Philosopisch-wissenschaftliches Denken lebt von der den Menschen eigenen Neugierde, zu verstehen, weil man verstehen will. Es geht nicht um Geld oder Ehre, es geht wirklich um die wahren Bilder der Welt, nicht als einzelwissenschaftliche Splitter, sondern als durch Denken vermittelter Zusammenhang von allem. Wenn das Wissen stirbt, versinken wir im Dunkel.

„Technische Superintelligenzen werden die Menschheit bedrohen“ – Wie kann man eine so absurde Behauptung aufstellen?

Science-Fiction-Visionen von intelligenten oder gar superintelligenten Maschinen haben eine lange Historie. Besonders in der Hype-Phase der so genannten „Künstlichen Intelligenz (KI)“ in den 1960-1980er Jahren waren Behauptungen en vogue, dass Computeranwendungen die Menschheit in Bezug auf ihre Intelligenz bald einholen oder gar überholen werden – mit unabsehbaren Folgen und Bedrohungen für die Menschheit. “Once the computers got control, we might never get it back. We would survive at their sufferance. If we’re lucky, they might decide to keep us as pets”, meinte z.B. Marvin Minsky im Jahr 1970.

Als Zeithorizont für solche technische Superintelligenzen werden gerne ca. 10-30 Jahre angegeben – egal wann so etwas behauptet wurde. Dieser Zeitrahmen ist anscheinend nah genug, um genug Aufmerksamkeit zu erregen und weit genug weg, um für die Gültigkeit der Behauptungen nicht mehr gerade stehen zu müssen.

Ich habe den Eindruck, dass Behauptungen über technische Superintelligenzen aktuell wieder eine Hochzeit erleben. Dabei werden sie nicht nur von Hollywood, sondern auch von Wissenschaftsjournalisten dankbar aufgegriffen und verwertet. Dass sich frühere Prognosen dieser Art als falsch herausgestellt haben, spielt dabei keine Rolle. Gerne wird auf „Experten“ verwiesen, die sich diesbezüglich (alle) längst einig seien und nur im exakten Zeitpunkt noch nicht ganz sicher seien.

Durch die Frage wann es so weit sei, wird die Diskussion um das „ob“ meiner Meinung nach völlig vernachlässigt. Ich bin Informatiker. Ich beschäftige mich seit über 30 Jahren mit KI, entwickle seit mehreren Jahren KI-Anwendungen für den Unternehmenseinsatz und veröffentliche darüber Artikel und Bücher. Demnach halte ich mich für einen KI-Experten. Und nach meiner Meinung sind Behauptungen von technischen Superintelligenzen absurd.

Derzeit arbeite ich in einem KI-Projekt, in dem wir Software für Ärzte entwickeln, die Krebspatienten behandeln. Ein schöner Nebeneffekt der Arbeit an diesem Projekt ist, dass ich mein Schulwissen in Biologie und insbesondere Genetik auffrischen durfte. Während das früher für mich trockener Schulstoff war, kann ich jetzt nachvollziehen, warum die Ursprünge des Lebens Menschen faszinieren. Ich hatte einige Aha-Effekte, was sie Vielschichtigkeit, Vernetzung und Dynamik von Prozessen des natürlichen Lebens betrifft. Ich möchte diese laienhaft kurz mitteilen, um sie anschließend KI-Anwendungen gegenüberzustellen.

Es gibt chemische und physikalische Grundsätze, nach denen sich Atome zu Molekülen bzw. Molekülketten zusammensetzen – quasi mechanisch nach festen, einfachen Regeln. Und diese einfachen Molekülketten verhalten sich wie kleine Maschinen, die spezielle Aufgaben verrichten. Da gibt es Maschinen, die schneiden die DNA in der Mitte auf; dann gibt es welche, die kopieren die DNA-Information auf RNA; es gibt welche, die prüfen, ob es Kopierfehler gegeben hat und korrigieren diese (aber nicht alle Fehler – es soll ja noch Raum für Mutation bleiben); dann gibt es Maschinen, die lesen RNA, interpretieren sie nach dem genetischen Code und bauen daraus neue Molekülketten: Proteine, aus denen Zellen zusammengesetzt werden.

Wenn ich diese physikalisch-biologischen Vorgänge betrachte frage mich: findet hier gerade der Übergang von toter Materie zum Leben statt? Wo genau?

Und nun geht es weiter: Die Proteine bilden Zellen – kleine Maschinen, die ganz unterschiedliche Aufgaben erfüllen. Manche transportieren Sauerstoff; Manche andere stürzen sich auf Schädlinge und bekämpfen diese; Wiederum andere bauen feste Knochen. Und weiter geht es: Zellen zusammen bilden Organe mit klaren Aufgaben. Eines verdaut unser Essen, eines pumpt Blut und ein Organ vollführt erstaunliche Denkleistungen. Und alle Organe zusammen formen einen Menschen. Dieser wird gezeugt, geboren (jeder der eigene Kinder hat, weiß von der Faszination der Geburt), wächst, lernt, handelt intelligent und stirbt wieder. Viele Menschen zusammen bilden Kulturen, die entstehen, Wissen und Fähigkeiten entwickeln, und wieder vergehen. Diese Kulturen werden von einer intelligenten Spezies, genannt Homo sapiens, geformt. Diese einzelne Spezies entstand durch Evolutionsprozesse, denen sie kontinuierlich unterworfen ist. Wie die meisten Spezies wird sie irgendwann vergehen. Alle Spezies zusammen bilden das Leben auf dieser Erde. Und die Erde ist nur ein einziger Planet eines Sonnensystems einer Galaxie des Universums, über dessen mögliche andere intelligente Lebensformen wir nichts wissen.

Alle diese Ebenen, die ich laienhaft angedeutet habe, sind in sich hoch komplexe Systeme, die alle miteinander verwoben sind. Und vermutlich gibt es genauso viele Ebenen im submolekularen Bereich. Niemand kann ernsthaft behaupten, das komplexe Zusammenspiel über all diese miteinander vernetzten Ebenen auch nur annähernd, geschweige denn vollständig zu begreifen. Was wir heute zu wissen glauben, wird morgen als überholt erkannt und wirft viele neue Fragen für übermorgen auf. Im Ernst zu glauben, dass die unfassbare Komplexität des Lebens, sowie der Intelligenz als einer Ausdrucksform des Lebens, durch Computeranwendungen abgebildet oder gar weit übertroffen werden könnte, scheint mir eine extreme Unterschätzung der Natur oder eine groteske Überschätzung von Wissenschaft und Technik zu sein.

Schauen wir uns doch einmal KI-Anwendungen im Detail an. KI-Anwendungen werden stets zu einem speziellen Zweck entwickelt. So kann z.B. IBMs Deep Blue Schach spielen und Googles AlphaGo kann Go spielen. Beide Systeme übertreffen dabei die menschlichen Welt- und Großmeister. IBM Watson kann Fragen des allgemeinen Lebens beantworten – selbst wenn sie knifflig und mit Wortwitz gestellt sind – und schlägt alle menschlichen Champions der Quizshow Jeopardy! Selbstfahrende Autos erreichen ihre Ziele unter korrekter Berücksichtigung der Verkehrsregeln – vermutlich bereits in naher Zukunft sicherer als menschliche Fahrer.

All dies sind faszinierende Beispiele für mächtige KI-Anwendungen, die ich persönlich vor 20 Jahren nicht für möglich gehalten hätte. Aber sicher ist auch: Deep Blue wird niemals von sich aus anfangen, Go zu spielen, oder Quizfragen zu beantworten. IBM Watson kann nicht Schachspielen und wird es auch nicht lernen, egal in wie viel Quizshows die Anwendung eingesetzt wird. Und das selbstfahrende Auto wird nicht plötzlich auf die Idee kommen, sich für das Präsidentenamt zu bewerben, die Wahl gewinnen, anschließend die Demokratie und schlussendlich die Menschheit abschaffen. Das ist einfach absurd und gehört in den Bereich der Fiktion.

Alle diese KI-Anwendungen wurden von Informatikern und anderen Ingenieuren entwickelt. Intern werden u.A. Techniken des Machine Learning (ML) eingesetzt, meist das sogenannte „Supervised Learning“. Dabei werden Beispieldaten verwendet. So werden z.B. viele unterschiedliche Bilder von Stoppschildern, inklusive der Information, dass es sich jeweils um ein Stoppschild handelt, geladen. Mithilfe statistischer Methoden werden Modelle entwickelt, die es erlauben, bei neuen Bildern mit einer großen Wahrscheinlichkeit korrekt zu erkennen, ob ein Stoppschild abgebildet ist oder nicht. Dies kann dann in selbstfahrenden Autos für Fahrentscheidungen genutzt werden.

Also: die Anwendung lernt nicht von selbst, sondern mittels Eingabe von Beispielen durch Ingenieure („Supervisor“ im Supervised Learning). Wenn die Erkennungsraten nicht gut genug sind, ändern die Ingenieure entsprechende Parameter und starten das Lernverfahren erneut. Mit menschlichem Lernen kann das kaum verglichen werden.

Eine KI-Technik, die etwas mehr Ähnlichkeit zum Lernen eines Menschen hat, ist das sogenannte „Reinforcement Learning“. Dabei wird eine Umgebung eingesetzt, in der die Computeranwendung selbst Beispiele erzeugen und ausprobieren kann. Somit ist es möglich, ein Modell zu erzeugen, ohne dass dafür ein menschlicher Supervisor nötig ist. Zum Beispiel kann man ein Schachprogramm immer wieder gegen sich selbst (bzw. gegen ein anderes Schachprogramm) spielen lassen und die Machine Learning Verfahren auf die Verläufe und Ergebnisse dieser Spiele anwenden. Was jedoch Ingenieure vorgeben müssen, ist eine sogenannte Nutzenfunktion, z.B. „es ist positiv, ein Schachspiel zu gewinnen und es ist negativ, eines zu verlieren“. Würde man aus Spaß das Vorzeichen der Nutzenfunktion vertauschen, so würde die KI-Anwendung trainiert, Schachspiele möglichst schnell zu verlieren. Für die Anwendung wäre das überhaupt kein Problem. Sie spürt ja gar nichts, auch nicht die Auswirkungen eines verlorenen Schachspiels. Den Anreiz, eine Anwendung zu entwickeln, die Schachspiele auch gewinnt, haben die Ingenieure. Sie geben alles Notwendige von außen vor – nicht die KI-Anwendung aus sich heraus.

Im Gegensatz zur KI-Anwendung haben Menschen jedoch einen Körper. Babys verspüren Hunger und lernen von sich aus, sich so zu verhalten, dass sie etwas zu essen bekommen (Schreien hilft meist). Kinder brauchen den Zuspruch und die Zuneigung der Eltern und lernen sich so zu verhalten, dass sie Zuspruch und Zuneigung auch erhalten. Jugendliche und junge Erwachsene lernen, wie sie sich in ihrer Gesellschaft zu verhalten haben, um zu überleben – so unterschiedlich Gesellschaften auch sein können. Sie lernen aus sich heraus, weil sie Körper und Geist haben und wirklich in ihrer Umgebung leben – quasi die Resultate ihres Handelns hautnah spüren. KI-Anwendungen werden im Gegensatz dazu ausschließlich von außen durch Ingenieure gestaltet, auch wenn Techniken des Machine Learning eingesetzt werden.

KI-Anwendungen laufen auf Computer-Hardware. Wie die Anwendungen ist auch die Hardware von Ingenieuren entwickelt worden. Auch wenn wir die Metapher der „Generationen“ verwenden (wir reden z.B. von einer „neuen Prozessorgeneration“), hat dies selbstverständlich nichts mit Fortpflanzung in der Natur zu tun. Ein Prozessor kommt nicht auf die Idee, einen neuen Prozessor zu entwickeln und er zeugt auch keinen Prozessor, der mittels Evolution plötzlich besser ist als sein Vater.

Vergleichen wir nun KI-Anwendungen mit biologischem, intelligentem Leben: Auf der einen Seite beobachten wir ein unfassbar komplexes, vielschichtiges, dynamisches, selbstorganisierendes System – die vielen Schichten bzw. Ebenen habe ich laienhaft oben angedeutet. Auf der anderen Seite haben wir ein menschengemachtes, zweischichtiges System, bestehend aus KI-Anwendung und Computer-Hardware. Beide Schichten sind in sich starr und nicht selbstorganisierend. Die Dynamik (neue Hardwaregenerationen, bessere Algorithmen etc.) kommt von außen durch menschliche Ingenieursleistung. Wie kann man nun nüchtern betrachtet zur Behauptung kommen, dass dieses starre, menschengemachte System irgendwie plötzlich und von selbst dynamisch, selbstorganisierend, lebendig und intelligent wird: eine technische Superintelligenz, welche die Menschheit bedrohen kann? Ich kann beim besten Willen nicht den allerkleinsten Ansatz dafür sehen.

Bleibt die Frage, warum es immer wieder (einzelne) Fachexperten wie Marvin Minsky gibt, die solche, aus meiner Sicht absurden, Behauptungen aufstellen. Ist es ihr Ziel, Aufmerksamkeit zu erzeugen? Können sie eventuell daraus finanziellen Nutzen zu ziehen, z.B. in Form von Fördergeldern (das hat in den 1980er Jahren prima funktioniert)? Glauben sie wirklich daran und sorgen sie sich um die Menschheit? Sind solche ernst gemeinten Behauptungen vielleicht der Ausdruck einer schon fast ideologischen Wissenschafts- und Technikgläubigkeit? Ich weiß es nicht.

Dabei sind die Fortschritte der KI, vor allem in den letzten 20 Jahren, in der Tat höchst beeindruckend. Und tatsächlich bergen sie neben zahlreichen Chancen auch größte Risiken, wenn die Techniken blauäugig angewendet werden. In der Ausgabe 2/2017 der Communications of the ACM schreibt Alan Bundy in seinem Viewpoint sehr pointiert und aus meiner Sicht richtig: „Smart machines are not a threat to humanity. Worrying about machines that are too smart distracts us from the real and present threat from machines that are too dumb“.

Menschen überlassen KI-Anwendungen zunehmend wichtige Entscheidungen, obwohl selbstverständlich keine Anwendung perfekt ist. Bei selbstfahrenden Autos mag das durchaus sinnvoll sein, sobald diese nachweislich sicherer fahren als Menschen. Aber wirklich gefährlich wird es bei Entscheidungen, deren Auswirkungen kein Mensch mehr überblicken kann. Ein viel diskutiertes Gebiet ist der Hochfrequenzhandel, bei dem KI-Anwendungen Kauf- und Verkaufsentscheidungen autonom treffen, ohne dass heute die Auswirkungen auf das gesamte Wirtschaftssystem überblickt werden können. Noch deutlicher wird das im militärischen Bereich, wenn KI-Anwendungen prognostizieren sollen, ob ein Angriffsfall vorliegt und im Extremfall in Sekundenbruchteilen autonom über einen (möglicherweise nuklearen) Gegenschlag entscheiden sollen. Über solche KI-Anwendungen wurde bereits 1983 im Rahmen der Strategic Defense Initiative (SDI) intensiv diskutiert (bezeichnenderweise während der Hochzeit des KI-Hypes); und solche Diskussionen kommen leider immer wieder auf die Tagesordnung.

Wenn eine überhöhte Technik- und Wissenschaftsgläubigkeit nur dazu führt, absurde Behauptungen über technische Superintelligenzen aufzustellen, so ist das nicht weiter schlimm – sie provozieren nur harmlose akademische Diskussionen oder inspirieren amüsante Science Fiction Filme. Wenn wir aber als Gesellschaft – und besonders die politischen und wirtschaftlichen Entscheider – die Grenzen von Wissenschaft und Technik nicht klar sehen und folglich KI-Anwendungen Entscheidungen überlassen, die zwingend von verantwortlichen Menschen getroffen werden müssen, so kann dies fatale Folgen für unsere Gesellschaft haben.

Anmerkung:

Im Anschluss an diesen Artikel gab es eine Vortragsveranstaltung in der Reihe Philosophie Jetzt im Gespräch am 28.September 2017