Archiv der Kategorie: KI – menschengemässe

SCHÄTZING: TYRANNEI DES SCHMETTERLINGS. KOMMENTAR: DEN ZEITGEIST DURCHBUCHSTABIERT – Über den Stil kann man streiten.

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
16.Mai 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Den folgenden Text hatte ich als Buchbesprechung zu Schätzings neuem Buch auf der Verkaufsseite des Buches bei amazon veröffentlicht. Es geht tatsächlich um eine Sachlage, um die Sachlage von uns Menschen. Hier der Link auf meine Besprechungsseite bei amazon.

KRITISCHE REZENSIONEN

Wer vor der Lektüre von Schätzings neuem Roman „Die Tyrannei des Schmetterlings. Roman. Kiepenheuer & Witsch, 736 Seiten“ versucht hat, Rezensionen zu diesem Buch zu lesen, der wird wenig ermutigt sein, sich diesem Buch zu widmen. In angesehenen Zeitungen finden sich Verrisse wie die von Jan Wiele (FAZ), 25.4.2018, Elmar Krekeler (Die Welt, 27.4.2018), Gerhard Matzig (SZ, 28.4.), und Alard von Kittlitz (Die Zeit, 5.5.2018). Ähnlich kritisch (wenngleich auch mit unterschiedlichen Argumenten) die Mehrheit der Reaktionen bei den Lesermeinungen zum Buch auf amazon. Bei amazon finden sich dann zwar auch positive Stimmen, aber aus ihnen kann man nicht so recht entnehmen, warum das Buch positiv ist. Von all diesen verrissartigen Besprechungen hebt sich wohltuend die ausführliche Besprechung von Peter Körting ab (FAZ, 24.4.2018). Sehr sachlich, sehr differenziert und sehr ausführlich gibt er einen Überblick über die Struktur des Romans, benennt Schwächen, lässt die Stärken nicht aus, und überlässt es dem Leser, zu einem endgültigen Urteil zu kommen.

STANDPUNKT DES REZENSENTEN

Ich hatte im Vorfeld den Verriss von Jan Wiele zum Buch gesehen, zwei Talkshows mit Schätzing, in denen die üblichen Klischees zu Künstlicher Intelligenz ausgetauscht wurden, und hatte nach dem begeisternden ‚Schwarm‘ zwei nachfolgende Romane von ihm nur mit Unlust zu Ende gebracht. Sein tendenziell schwulstiger Stil mit vielen Längen, dazu relativ flache Personenprofile, ist nicht unbedingt mein Stil. Dazu kommt, dass ich ein Experte in Sachen Künstlicher Intelligenz und angrenzender Themenfelder bin, seit mehr als 30 Jahren, und die Signale, die das Buch im Vorfeld aussendete, waren eher dazu angetan, es nicht auf die Leseliste zu setzen. Aber, zum Glück, ist das Leben trotz aller Pläne und Steuerungen doch immer noch von Zufällen geprägt: meine Frau bekam das Buch als Hörbuch zum Geburtstag geschenkt und aktuell anstehende lange Autofahrten brachten mich in eine Art Schicksalsgemeinschaft mit diesem Buch.

REINKOMMEN

Die ersten Minuten des Hörbuchs waren bei meiner Voreinstellung eine harte Prüfung: ein erhebliches Wortgetöse für eine Situation, die man mehr erahnen als verstehen konnte, mit einem abrupten harten Schnitt, der den Hörer von einem afrikanischen Land direkt nach Nord-Kalifornien, ins Land des Silicon Valley, führte. Die geringen Ausweichmöglichkeiten einer langen Fahrgemeinschaft hielten mich dann – glücklicherweise – fest, und ich konnte in der Folge minutenweise, stündlich erleben, wie sich aus einer scheinbaren Idylle langsam ein Thriller entwickelte, der bis zum Schluss (verteilt über mehrere Fahrten) häppchenweise an Dramatik zulegte. Nach ca. drei-viertel des Hörbuchs bin ich dann auf die Ebook-Version umgestiegen, da das dann einfach schneller ging.

ÄSTHETISCHE VERPACKUNG VON IDEEN

Die große Masse der Rezensionen arbeitet sich stark an der ästhetischen Verpackung ab, kritisiert die vielen Wortungetüme oder scheinbare ‚Slangs‘, die dem deutschen Bildungsbürger abartig erscheinen, leidet an empfundenen Längen, findet die Personen nicht so dargestellt, wie man selbst sie gerne sehen würde …. aber das ist weitgehend wirklich Geschmackssache und sagt nicht wirklich etwas über die ‚Botschaft‘, die in diesem Buch mutig und – man muss es schon mal hier sagen – ‚genial‘ verpackt wurde.

DER ZEITGEIST UND KÜNSTLICHE INTELLIGENZ

Während Experten im Bereich künstliche Intelligenz sich mit den Themen mindestens seit der Mitte des vorausgehenden Jahrhunderts intensiv beschäftigen, wurde die deutsche Öffentlichkeit so richtig erst seit der Cebit 2016 mit diesen Themen überrollt. Mit einem Mal besetzte das Thema ‚künstliche Intelligenz‘ nach und nach alle Medienkanäle, fortan täglich, stündlich. Es waren nicht unbedingt die Forscher selbst, die sich hier artikulierten, sondern vorwiegend die Marketingabteilungen der großen Konzerne, die verkaufen wollten, und die vielen Journalisten, die kaum etwas verstanden, aber nichts desto trotz als ‚Verstärker‘ der Marketingabteilungen viele Schlagworte in die Welt setzten, ohne sie wirklich zu erklären.

Während sich die Öffentlichkeit mit möglichen Schreckgespensten wie einer neuen kommenden Arbeitslosigkeit beschäftigte, das – in der Tat ungute – globale Ausspähen zum Thema machte, die Politik Digitalisierung und Industrie 4.0 propagierte, bunte lustige Filmchen von Robotern herumgereicht wurden, die merkwürdig aussahen und merkwürdige Dinge taten, blieb die ‚wahre Natur‘ von künstlicher Intelligenz, die rasant voranschreitende Forschungen zu immer komplexeren Steuerungen, Vernetzungen, und vor allem zur Kombination von künstlicher Intelligenz und Mikrobiologie, vor allem Genetik, weitgehend unsichtbar. Neueste Erkenntnisse zur Evolution des Lebens, zur Astrophysik, die weitgehende Auflösung aller alten Menschenbilder samt einer damit verbundenen Auflösung aller bekannten Ethiken wurde nie und wird immer noch nicht offiziell in der Öffentlichkeit diskutiert. Das weltweit zu beobachtende Phänomen von neuen, starken Strömungen in Richtung Populismus, Fanatismus, Nationalismus, verbunden mit stark diktatorischen Zügen ist – in diesem Kontext – kein Zufall.

In einer solchen Situation ist es wichtig, dass man anfängt, die vielen scheinbar isolierten Einzelphänomene aus ganz unterschiedlichen Bereichen in ihrem Zusammenhang sichtbar zu machen, in ihrer tatsächlichen Dynamik, in ihrer möglichen synergistischen Logik, ansatzweise verstehbar ohne die vielen komplexen Details, die ja selbst die Fachwissenchaftler kaum verstehen. Ich gebe offen zu, dass ich selbst – als Fachexperte – schon mehrfach erwogen hatte, etwas Populäres zu schreiben, um die komplexen Sachverhalte irgendwie verständlicher zu machen. Ich bin aber über erste Plots nicht hinaus gekommen. Ich fand einfach keinen Weg, wie man diese Komplexität erzählbar machen kann.

JENSEITS DER EINZELFAKTEN

Sieht man von den ästhetischen Besonderheiten des Textes bei Schätzing ab (die einen finden seinen Stil gut, andere leiden), dann kann man im Verlaufe seiner Schilderungen nicht nur eine erstaunliche große Bandbreite an technischen Details kennenlernen, die den aktuellen und denkbar kommenden Forschungsstand sichtbar machen, sondern er vermag es, diese vielen Details in funktionale Zusammenhänge einzubetten, die nicht so ohne weiteres auf der Hand liegen und die sich so auch in kaum einer anderen Publikation finden, nicht in dieser Explizitheit. In seinem Text offenbart er eine innovative, kreative Kraft des Weiter-Denkens und des Zusammen-Denkens, die beeindruckend ist, die sehr wohl zu weiterführenden und intensiven Diskussionen geeignet sein könnte.

PARALLEL-UNIVERSEN

Verglichen mit dem mittlerweile schon abgedroschen wirkendem Stilmittel der Zeitreisen eröffnet seine Verwendung der Idee von Parallel-Universen viele neue, interessante Szenarien, die erzählerisch zu ungewohnten, und darin potentiell aufschlussreichen, Konstellationen führen können. Wissenschaftlich ist dieses Thema hochspekulativ und in der Art der Umsetzung wie bei Schätzing eher extrem unwahrscheinlich. Erzählerisch eröffnet es aber anregende Perspektiven, die viele philosophisch relevante Themen aufpoppen lassen, einfach so, spielerisch. Ob es Schätzing gelungen ist, dieses Stilmittel optimal zu nutzen, darüber kann man streiten. In seinem Text eröffnet dieses Stilmittel allerdings eine Diskussion über alternative Entwicklungsmöglichkeiten, die ohne das Stilmittel Parallel-Universen, wenn überhaupt, nur sehr umständlich hätten diskutiert werden können.

CYBORGS

Was Schätzing hier mit vielen Beispielen zum Thema ‚Design von neuen biologischen Strukturen‘ schreibt, ist in so manchem Entwicklungslabors Alltag. Die Fassade einer Ethik, die es inhaltlich gar nicht mehr gibt, verhindert in manchen Ländern die offizielle Forschung mit neuen molekularbiologischen Strukturen, aber sie passiert trotzdem. Unterstützt durch Computer mit immer leistungsfähiger Software werden immer schneller immer neuere biologische Strukturen geschaffen, die mit anderen Technologien (z.B. Nanotechnologie) verknüpft werden. Und der Einbau von künstlicher Intelligenz in biologische Strukturen (die als solche ja schon unterschiedliche Formen von Intelligenz haben) ist in vollem Gange. Aktuell sind diese Spezialentwicklungen. Es ist das Verdienst von Schätzing, beispielhaft Zusammenhänge zu denken, in denen sich diese Spezialentwicklungen im größeren Kontext zeigen und was sie bewirken können, wenn Geld und Macht gezielt genutzt werden, um sie bewusst zu nutzen. Diese Art von Science Fiction ist unserer Gegenwart erschreckend nahe.

SUPERINTELLIGENZ

Während heute selbst seriöse Forscher immer öfter über die Möglichkeit von technischen Superintelligenzen nachdenken, ist das Verständnis einer solchen Technologie bislang noch nicht wirklich da. Es gibt bis jetzt ja noch nicht einmal eine allgemein akzeptierte Definition von ‚künstlicher Intelligenz‘. Das Ausweichen auf den harmloser klingenden Ausdruck ‚maschinelles Lernen‘ löst das Problem nicht. Die Wissenschaft hat bislang keine klare Meinung, was sie wirklich unter einer ‚künstlichen Intelligenz‘ verstehen soll, geschweige denn, was eine ‚Superintelligenz‘ sein soll, eine solche, die die ‚menschliche Intelligenz‘ deutlich übertrifft. Erstaunlich ist in diesem Zusammenhang, dass auch die sogenannte ‚menschliche Intelligenz‘ nach ungefähr 150 Jahren Intelligenzforschung noch nicht vollständig geklärt ist. Gemeinsam ist allen Positionen, dass man den Menschen in seiner aktuellen biologischen Verfassung bezüglich Datenmenge und Geschwindigkeit der Verarbeitung von Daten einer potentiellen Maschine gegenüber als hoffnungslos unterlegen ansieht. Aus diesen sehr äußerlichen Kriterien leitet man ab, dass eine solche Maschine dann ‚irgendwie‘ den Menschen auch in Sachen ‚Intelligenz‘ haushoch überlegen sein wird.

Schätzing kann das Fehlen wissenschaftlicher Erklärungen zu künstlicher Intelligenz nicht ersetzen, aber als innovativ-kreativer Geist kann er literarisch ein Szenario erschaffen, in dem ansatzweise sichtbar wird, was passieren könnte, wenn es eine solche maschinelle Superintelligenz gäbe, die über Netze und steuerbare Körper mit der Welt verbunden ist. Es ist auch bemerkenswert, dass Schätzing sich dabei nicht von technischen Details ablenken lässt sondern den Kern des Super-Intelligenz-Problems im Problem der ‚Werte‘, der ‚Präferenzen‘ verortet. Das, was heute weltweit als ‚künstliche Intelligenz‘ propagiert wird, ist in der Regel noch weitab von einer ‚vollen künstlichen Intelligenz‘, da diese ‚gezähmten Intelligenzen‘ nur innerhalb eng vorgegebener Zielgrößen lernen und dann agieren dürfen. Andernfalls könnten die Firmen die Zuverlässigkeit des Betriebs nicht garantieren. Jene wenigen Forschungsgruppen, die sich mit echten ‚ungezähmten‘ künstlichen Intelligenzen beschäftigen (z.B. im Bereich ‚developmental robotics‘), stehen vor dem riesigen Problem, welche Werte diese offen lernenden Systeme haben sollten, damit sie tatsächlich ‚autonom‘ ‚alles‘ lernen können. Aktuell hat niemand eine befriedigende Lösung. Und diese Forschungen zeigen, dass wir Menschen über die Art und Weise, wie wir selbst Werte finden, entwickeln, benutzen bislang kein wirklich klares Bild haben. Das bisherige Reden über Ethik hat eher den Charakter einer ‚Verhinderung von Klärung‘ statt einer offenen Klärung.

Schätzing wagt es sogar, über das mögliche Bewusstsein einer solchen maschinellen Superintelligenz zu spekulieren. Dies ist nicht abwegig, es ist sogar notwendig. Aber auch hier zeigt sich, dass wir Menschen unsere eigenen Hausaufgaben noch lange nicht gemacht haben. Auch das Thema ‚Bewusstsein‘ ist weder von der Philosophie noch von den unterstützenden empirischen Wissenschaften bislang gelöst. Es gibt viele hundert Artikel und Bücher zum Thema, aber keine allgemein akzeptierte Lösung.

Ich finde es daher gut und mutig, dass Schätzing in diesem Zusammenhang es wagt, das Thema anzusprechen. Künstliche Intelligenzforschung kann ein wunderbarer Gesprächspartner für Psychologen, Neuropsychologen und Philosophen sein. Leider wissen die jeweiligen Gesprächspartner aber oft zu wenig voneinander.

DEN ZEITGEIST DURCHBUCHSTABIERT

Nimmt man alle Einzelheiten zusammen, würdigt die vielen kreativ-innovativen Zusammenhänge, die Schätzing sichtbar macht, schaut sich an, wie er es schafft, das schwierige Thema ‚maschinelle Superintelligenz‘ in einem größeren komplexen Kontext in Szene zu setzen, dann bin ich bereit, zu konzedieren, dass dies eine tatsächlich geniale Leistung ist. Er kondensiert die vielen losen Fäden zu einem Gesamtbild, das unserer tatsächlichen und der sehr bald möglichen Zukunft sehr nahe ist, und macht deutlich, dass hier ein erheblicher Diskussionsbedarf besteht, und zwar über alle Positionen und Fachgrenzen hinweg. Ich kenne kein Buch, das in der aktuellen Situation auch nur ansatzweise literarisch das leistet, was Schätzing hier vorgestellt hat. Ich kann nur hoffen, dass diesem Aufschlag von Schätzing noch viele Reaktionen folgen (allerdings bitte nicht als billiger Verriss).

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

MEMO: AUGE IN AUGE MIT DER KÜNSTLICHEN INTELLIGENZ. PHILOSOPHIESOMMER 2016 IN DER DENKBAR – Sitzung vom 12.Juni 2016

Entsprechend den vielfachen Wünschen der Teilnehmer war für die Sitzung am 12.Juni 2016 ein Experte für intelligente Maschinen eingeladen worden, eine kleine Einführung in die aktuelle Situation zu geben.

Ziel des Beitrags sollte es sein, anhand konkreter Beispiele ein wenig mehr zu verdeutlichen, was intelligente Maschinen wirklich leisten können. Im anschließenden Diskurs sollte es wieder darum gehen, diesen Beitrag als Ausgangspunkt zu nehmen, um die Fragen der anwesenden Teilnehmer und ihre Gedanken zu Worte kommen zu lassen.

Gedankenskizze von der Sitzung des Philosophiesommers 2016 in der DENKBAR vom 12.Juni 2016
Gedankenskizze von der Sitzung des Philosophiesommers 2016 in der DENKBAR vom 12.Juni 2016

Das Diagramm gibt einen ersten Überblick über die Struktur der Sitzung. Im Einstieg wurden in lockerer Form verschiedene Videos vorgestellt, immer wieder unterbrochen durch ad hoc Erläuterungen, die sehr konkrete Eindrücke von den agierenden Forschern und ihren Algorithmen vermittelten. Danach gab es ein sehr lebhaftes Gespräch, in dem weniger die Details der Algorithmen diskutiert wurden, sondern mehr die Gefühle, Befürchtungen und Fragen, die das Ganze bei allen auslöste.

KI DIREKT

Das Gebiet der KI ist ziemlich groß. An diesem Tag wurde von einem kleinen Ausschnitt berichtet, er sich aber zur Zeit im Zentrum größten Interesses befindet. Es ging vornehmlich um Bilderkennung und ein bisschen um Methoden des anfangshaften Verstehens von Sprache.

Bei der Bilderkennung wurden Beispiel gezeigt, wie Rechner heute Szenen analysieren und darin dann einzelne Objekte erkennen könne; wie dann in einer Folge von Szenen die erkannten Objekte räumliche Strukturen bilden können (Räume, Straßen, …), in denen man dann nach Pfaden/ Wegen suchen kann. Unter den Videos war auch eine künstlerische Anwendung, die zeigte, dass man diese Technologien auch ganz anders einsetzen kann. (Ergänzend kann man z.B. auch hinweisen auf Bereiche wie die Musik, in der KI mittlerweile komplexe Musikstücke analysieren und neu arrangieren kann, und sogar als eigenständiger Musiker in einer Band mitspielen kann, z.B. „Wunder der Technik Musikalische Drohnen ersetzen das Orchester „, oder „Neue Jobs für Roboter„).

Bei dem anfangshaften Verstehen von Sprache wurden Methoden vorgestellt, die aus den Verteilungen von Worten und Wortverbindungen zu Bedeutungsschätzungen kommen können, und auch hier wieder alltagspraktische Anwendungen wie jene, bei der Texte eines Politikers künstlerisch so abgewandelt werden konnten, dass sie wie die Texte dieses Politikers aussahen, aber vom Algorithmus produziert worden waren. Aber auch hier gilt, dass dies nur ein kleiner Ausschnitt von dem war, was heute schon im Einsatz ist (man denke an den sogenannten Roboter-Journalismus, wo die Nachrichten und Artikel ganzer Webseiten mittlerweile komplett durch Algorithmen erstellt werden, z.B. „Roboterjournalismus: Maschinen ohne Moral“ oder „Automatisierter Journalismus: Nehmen Roboter Journalisten den Job weg?)

GESPRÄCH : WIDERHALL IN UNS

Bei den Teilnehmern überwog die Skepsis die Faszination.

KI AKTEURE

Auffällig war den meisten, wie jung die Akteure in der Szene waren, selbst die Chefs und CEOs von milliardenschweren Unternehmen. Wie diese (scheinbar) unbekümmert die Vorzüge ihrer Technik priesen, begeistert, enthusiastisch; Nachdenklichkeiten, kritische Überlegungen sah man nicht (im Kontrast dazu vielleicht die Eindrücke, die man von deutschen Konzernen hat mit ihren schwerfälligen autoritären Strukturen, mit ihren zementierten Abläufen, der großen Risikoaversion…). Der Geist der KI-Akteure hingegen erzeugt Neues, Innovatives, bewegt die Welt. In Erinnerungen an den Bau der Atombombe mit den begeisterten Forschern für das technische faszinierend Machbare stellte sich mancher aber auch die Frage, ob diese Unbekümmertheit, diese emotionslose Technik, nicht auch gefährlich ist (je mehr Bilderkennung z.B. im öffentlichen Bereich, dann auch mehr umfassende Kontrolle, Überwachung. Das ‚System‘ weiß dann immer, wo man gerade ist und mit wem er zusammen ist (immerhin hat sich das US-Verteidigungsministerium den Chef von Alphabet (dazu gehört google) mittlerweile offiziell als Berater geholt)). Andere fragten sich, ob es in Zukunft eigentlich nur noch Informatiker gibt (quasi als allfällige Diener der KI), während alle anderen überflüssig werden.

OFFENE ZIELE

Sieht man die aktuelle Techniksituation als Momentaufnahme eines Prozesses mit einer Geschichte und möglichen Zukünften, dann kann (und muss?) man die Frage, nach dem darin wirkenden Fortschrittsbegriff stellen, nach den wirkenden Kriterien.

WAS IST INTELLIGENZ?

Ein Teilaspekt ist der Begriff der Künstlichen Intelligenz mit dem Teilbegriff Intelligenz. Was ist damit eigentlich gemeint? Auf welche Intelligenz bezieht man sich? In der Psychologie benutzt man seit ca. 100 Jahren einen operationalisierten Intelligenzbegriff zur Messung der Intelligenz (Binet). Doch diese Betrachtungsweise ist sehr quantifizierend und wird vielfach kritisiert, auch mit Verweis auf kulturelle Unterschiede. Im Unterschied zur Pschologie findet man im Bereich der KI selbst bzw. in der Informatik keine einheitliche Definition von Intelligenz (siehe z.B. KI ). Während die KI im klassischen Sinne sich an der Intelligenz von biologischen Systemen orientiert, die nachempfunden werden soll, findet sich heute vielfach ein engeres, ingenieurmäßiges Verstehen von KI als Maschinelles Lernen. Hier wird die Frage nach Intelligenz im allgemeinen gar nicht mehr gestellt. Stattdessen gibt es immer konkrete, spezielle Aufgabenstellungen, die technisch gelöst werden sollen, und die Lösung konzentriert sich dann ausschließlich auf diese eingeschränkten Aspekte.

SELBSTBESCHREIBUNG DES MENSCHEN ALS MASCHINE

Die Diskussion um den Intelligenzbegriff streift auch das Phänomen, dass die Menschen in nahezu allen Epochen dahin tendieren, sich selbst immer im Licht der neuesten Erkenntnisse und Techniken zu beschreiben, sozusagen auf der Suche nach sich selbst. Eigentlich weiß kein Mensch so richtig, wer er ist und ist dankbar für jedes Bild, was man ihm anbietet. So vergleichen sich Kinder heute häufig mit einem PC: ‚mein Kopf ist wie ein Computer‘; ‚ich habe das nicht abgespeichert‘; ‚meine Festplatte ist leer’…. Zu Zeiten eines La Mettrie (1709 – 1751)  wurde der Geist der Dualisten (vor allem repräseniert duch Descartes) aus dem Körper des Menschen verbannt; der Körper war nur noch eine Maschine (im damaligen Verständnis) ohne Geist.

VIRTUALITÄT ALS GEFAHR?

Mit Blick auf die KI und die enorme Zunahme an digitalen Räumen als virtuelle Welten wurde auch die Frage aufgeworfen, wieweit dies eine Gefahr darstellt? Verzetteln wir uns nicht? Wissen wir noch Virtuelles und Reales auseinander zu halten? Dazu sei angemerkt, dass sich das Erleben und Denken des Menschen ja primär in seinem Gehirn abspielt, das als Gehirn im Körper sitzt ohne direkten Weltbezug. D.h. schon das normale Denken des Menschen hat das Problem, dass es dem einzelnen zwar real erscheint, inhaltlich aber – bezogen auf eine unterstellte Außenwelt – mit der Außenwelt nicht automatisch übereinstimmen muss. Es gehört ja gerade zur Kulturgeschichte des Menschen, dass er mühsam lernen musste, dass die meisten Gedanken der Vergangenheit eben nur Gedanken waren und nicht die Welt beschrieben haben, wie sie wirklich (=empirisch überprüfbar) ist. Insofern stellen die neuen virtuellen Welten nichts wirklich Neues dar, wohl aber eine Modifikation der Situation, die neu verstanden und gelernt werden muss.

BRAUCHEN WIR NOCH MEHR EVOLUTION?

Greift man nochmals den Gedanken auf, dass die aktuelle Techniksituation als Momentaufnahme eines Prozesses mit einer Geschichte und möglichen Zukünften Teil der Evolution ist, wurde gefragt, ob wir noch mehr Evolution brauchen? Außerdem, welches Ziel hat diese Evolution?

Mit Blick auf den Blogeintrag vom 11.Juni 2016 wurde eingeblendet, dass sich die Frage nach der Evolution möglicherweise anders stellt. Schliesslich sind wir selbst, alle Menschen, alle Lebewesen, Produkt der Evolution, wir sind Teilnehmer, aber bislang nicht als Herren des Geschehens. Und vieles spricht dafür, dass alle Phänomene im Umfeld des Menschen auch nicht los lösbar sind von der Evolution. Sie gehören quasi dazu, wenn auch vielleicht in einem neuen qualitativen Sinn. Soweit wir heute erkennen können, ist es seit dem Auftreten des homo sapiens sapiens (hss) zum ersten Mal seit dem Auftreten des Lebens auf der Erde möglich, dass das Leben als Ganzes sich in Gestalt des hss sich quasi selbst anschauen kann, es kann sich mehr und mehr verstehen, es kann seine eigenen Baupläne lesen und mehr und mehr abändern. Dies eröffnet für das Leben auf der Erde (und damit im ganzen bekannten Universum) eine völlig neue und radikale Autonomie. Die allgemeine physikalische Entropie wird bislang dadurch zwar nur lokal aufgehoben, aber immerhin, dass es überhaupt möglich ist, über die bekannten Naturgesetze hinaus durch bestimmte Prozesse Strukturen zu erzeugen, die der Entropie zuwider laufen, ist ein bemerkenswertes Faktum, das bislang von der Physik so gut wie gar nicht zur Kenntnis genommen wird (und auch nicht von den Akteuren selbst, dem hss).

RADIKALE AUTONOMIE

Möglicherweise ist die fundamentale Tragweite der neuen radikalen Autonomie des Lebens auch deshalb noch nicht so recht ins Bewusstsein getreten, weil im Alltag, im konkreten Dasein, die körperlichen Grenzen sehr deutlich sind, die ganze Trieb-, Bedürfnis-, und Emotionsstruktur des Menschen in ihrer Konkretheit und Intensität vielfach als so stark empfunden wird, dass man die großen Linien, die geradezu kosmologische Dimension dieser radikalen Autonomie noch kaum wahrnimmt.

Dazu kommt, dass die Tatsache, dass sich fast alle interessanten Prozesse im Innern des Menschen abspielen, es notwendig macht, dass diese inneren Prozesse über Kommunikation miteinander koordiniert werden müssten. Dies ist aufwendig und schwierig. Viele (die meisten) Menschen scheitern hier, kapitulieren. So verharren sie – und damit ganze Generationen – in bestimmten Empfindungs-, Denk- und Handlungsmustern, die nicht weiter führen, die eher Rückschritt bedeuten.

Aktuell erscheint es offen, in welche der vielen möglichen Zukünfte wir uns bewegen werden. Werden demnächst die intelligenten Maschinen alles übernehmen, weil der hss ausgedient hat? Oder wird es doch bei einer Symbiose auf hohem Niveau bleiben, in der der hss die intelligenten Maschinen für sich nutzt und die intelligenten Maschinen durch den Menschen Räume erobern können, die ihnen sonst verschlossen wären? Oder – und diese dritte Möglichkeit sieht aktuell – soweit ich sehe – eigentlich noch niemand – wird er Mensch in den nächsten Jahren neu erwachen und begreifen, dass diese radikale Autonomie etwas radikal Neues darstellt, etwas, das es so noch nie zuvor in den 13.8 Mrd Jahren gegeben hatte?

Um die radikale Autonomie nutzen zu können, muss der Mensch erstmalig in der Geschichte des Lebens die Frage nach den Werten, nach den Zielen, wohin die Reise eigentlich gehen soll, selber stellen … und beantworten. Bis zum hss gab es keine Wertediskussion. Die Evolution stellte einen Prozess dar, in dem bestimmte Lebensformen im Kontext der Erde überlebt hatten; das waren die einzigen Werte im Nachhinein. Vor der Neuwerdung im Reproduktionsprozess gab es keine expliziten Werte. Es gab bisherige Erfolge und viel Zufall.

Einen Überblick über alle Beiträge zum Philosophiesommer/ zur Philosophiewerkstatt nach Titeln findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

BEWUSSTSEIN – NICHTBEWUSSTSEIN MIT TEILSTRUKTUREN: Eine Skizze (Teil 2)

Vereinfachendes Modell der Verhältnisse zwischen Bewusstsein - Nichtbewusstsein einerseits, und einigen der Teilstrukturen, u.a. die tiefenpsychologischen Konzepte von 'Unbewusstes' und 'Vorbewusstes'
Vereinfachendes Modell der Verhältnisse zwischen Bewusstsein – Nichtbewusstsein einerseits, und einigen der Teilstrukturen, u.a. die tiefenpsychologischen Konzepte von ‚Unbewusstes‘ und ‚Vorbewusstes‘

1. In einem vorausgehenden Blogeintrag hatte ich zum Thema BEWUSSTSEIN – NICHTBEWUSSTSEIN MIT TEILSTRUKTUREN eine Visualisierung benutzt, in der die einzelnen individuellen Bewusstseine quasi ‚abgehoben‘ zu sein scheinen, gleichsam als ob sie ‚in der Luft schwebend‘. Rein logisch, im Zusammenhang ist klar, dass dies nicht so ist, aber das Bild suggeriert dies ein wenig.

2. Um solchen Missverständnissen vorzubeugen habe ich den gleichen Sachverhalt daher nochmals anders visualisiert: dieses Mal ist das individuelle Bewusstsein ‚eingebettet‘ in ein individuelles Gehirn, dieses wiederum in einen individuellen Körper, und dieser in etwas ‚Größeres‘, das nicht weiter benannt wird. Von den Naturwissenschaften her wissen wir, dass es hier Makrostrukturen wie Erde, Sonnensystem usw. gibt.

Andere Sicht auf das Thema Bewusstsein--Nichtbewusstsein, dieses Mal mit dem Bewusstsein lokalisiert innerhalb des Gehirns
Andere Sicht auf das Thema Bewusstsein–Nichtbewusstsein, dieses Mal mit dem Bewusstsein lokalisiert innerhalb des Gehirns

3. Die gewählte zweidimensionale Darstellung kommt insgesamt hier an ihre Grenzen; hier wäre eine dreidimensionale Visualisierung, die man durchwandern kann, angemessener.

4. Bei allem muss man sich klar machen, dass es sich letztlich um eine Visualisierung von Strukturen handelt aus der primären Sicht eines Bewusstseins, das – lokalisiert in einem Gehirn in einem Körper – versucht zu verstehen, was ‚außerhalb von ihm‘ ist, und das über den ‚Umweg‘ des Außenweltwissens Hypothesen über seine eigenen Arbeitsvoraussetzungen entwickelt. D.h. ein bestimmtes Bewusstsein C ‚erlebt sich‘ zwar in einer spezifischen Weise, es kann aber die Mechanismen seines Erlebens, warum, wieso, weshalb usw. nicht direkt ‚einsehen‘. So wird es vom umgebenden Gehirn z.B. mit allerlei ‚Abstraktionen von Objekten‘ versorgt, kann begrenzt über ‚Erinnerungen‘ verfügen, kann aber nicht direkt einsehen, wie solche Abstraktionen zustande kommen, wie das Erinnern im Detail funktioniert, usw.

5. So großartig das Phänomen des Bewusstseins innerhalb der bekannten Natur ist, so schlicht und einfach sind seine Erlebnisstrukturen gemessen an jenen komplexen Prozessen und Strukturen, die vorhanden sein müssen, damit diese Erlebnisstrukturen funktionieren.

6. Schon die Struktur eines Atoms hat eine Komplexität, die bis heute möglicherweise nicht vollständig aufgehellt ist, geschweige denn die Struktur und Dynamik von Molekülen; unfassbar wird es schon bei der Entstehung und Funktionsweise von Zellen, und dass diese dann in Kooperation von vielen Billionen (10^12) zu solchen komplexen Leistungen fähig sind, wie wir sie von Pflanzen und Tieren (einschließlich des homo sapiens sapiens) her kennen, das übersteigt bislang unsere Verstehensfähigkeit, die an die aktuelle Form des Bewusstseins gekoppelt ist.

7. Zwar haben die Menschen im Laufe von ca. 10.000 Jahren immer mehr ‚Wissenstechniken‘ entwickelt, um die Grenzen des Bewusstseins zu umgehen (Sprachen, Schrift, Texte, Mathematik, Bücher, Bibliotheken, Computer,… ), dies alles unterstützt durch immer größere ‚Spezialisierungen‘ sowohl in Form von ‚Trainings‘ (diverse Formen von Ausbildung) wie auch von ’sozialen Rollen‘ (Lehrer, Professoren, Meister, Facharbeiter, Ingenieure, Richter, Ärzte, …) und ‚Institutionen‘ (Schulen, Hochschulen, Behörden, Betriebe, Märkte, …), doch je vielfältiger diese Werkzeuge und Institutionen geworden sind, umso komplexer wurde dadurch auch die ‚Lebenswelt der Menschen‘: die Natur wurde mehr und mehr überlagert durch ‚zivilisatorische‘ Strukturen und Erzeugnisse, der Umgang miteinander wurde immer komplexer durch eine Vielzahl von Sprachen, Fertigkeiten, Rollenmustern, Regeln, Ethnien, und kulturellen Mustern. Eine ‚Spezialisierung‘ hilft dann zwar im Detail, aber die ‚Gesamtheit‘ aller Spezialisierung, die ‚Summe der Teile‘ kann das Fassungsvermögen eines einzelnen Bewusstseins deutlich zu übersteigen (ein Gedanke, der in diesem Blog schon mehrfach ausgesprochen wurde).

8. Neben der Frage, ob und wie der Mensch sein Bewusstsein ‚real‘ erweitern kann (nicht nur scheinbar durch Drogen, die sein Erleben subjektiv verändern), indem er seinen Körper mit dem Gehirn ‚genetisch und dann strukturell weiterentwickelt‘, wurde auch schon immer die Frage aufgeworfen, ob und wie der Mensch sich dadurch helfen könnte, dass er sich ‚Formen künstliche Intelligenz‘ schafft, die ihm helfen.

9. In den vielfältigen Visionen solch einer ‚künstlichen Intelligenz‘ wurde zwar oft unterstellt, dass diese künstliche Intelligenz mit dem Menschen kommunizieren kann, aber noch nie (!!!!!) hat sich jemand ernsthaft die Frage gestellt, welche Voraussetzungen denn erfüllt sein müssten, damit solch eine ‚menschengemässe Kommunikation‘ möglich sei. Die vielen großen Handbücher zum Thema ‚Künstliche Intelligenz‘ – so wunderbar und beeindruckend sie z.T. in Umfang und Darstellung sind – schweigen sich zu diesem Punkt aus. Das Verhältnis zwischen Mensch und Maschine ist hier ein Nichtthema, ein Totalausfall.

10. Eine Untersuchung der inneren Struktur von normaler Sprache zeigt, dass das ‚Ausdrucksmaterial‘ von Sprache (Sprachlaute, Schriftzeichen, …) zum ’normalen Gebrauch‘ innerhalb von ‚Sprachspielen‘ ‚im‘ Sprecher-Hörer, also im Zeichenbenutzer, abgebildet (kodiert) werden muss auf jene perzeptorischen (und abstrakt weiter verarbeiteten) Strukturen, die dann das Substrat von dem ausmachen, was wir dann die ‚Bedeutung‘ eines sprachlichen Ausdrucks nennen. Diese Mischung aus perzeptorischen Material und gehirnmässig aufbereiteten multimodalen Abstraktionen und Assoziationen ist höchst komplex, im einzelnen wenig erforscht (da schwierig zu beobachten), und bildet einen substantiellen Bestandteil dessen, was wir ‚menschliche Kommunikation‘ nennen.

11. Eine ‚künstliche Intelligenz mit menschengemässer Kommunikation‘ [KImK] (‚Artificial Intelligence for Communication with Humans‘ [AI4CH]) benötigt u.a. solch eine komplexe Semantik, will sie in der Lage sein, mit Menschen entsprechend zu kommunizieren. Dies setzt zwar nicht voraus, dass solch eine KImK den Körper und das Gehirn eines Menschen 1-zu-1 kopiert, aber es setzt voraus, dass die ’semantischen Strukturen‘ funktional äquivalent verfügbar sind. Zudem wird dies nicht ohne kontinuierliche ‚Adaptation‘, sprich ’nicht ohne kontinuierliches Lernen in menschengemässen Umgebungen‘ gehen. Wer sich also wundert, warum es trotz solch gewaltiger technischer Fortschritte noch immer keine KI gibt, die auch nur ansatzweise zu menschengemässer Kommuniktion fähig ist, der braucht sich nur zu fragen, wo denn bislang solche Lernprozesse stattfinden (IBMs Watson Computer + Programm versucht dies, aber nach all dem, was darüber bekannt geworden ist, ist dieses Konzept nach meiner Einschätzung noch sehr weit entfernt von dem, was hier gebraucht wird).

12. Und selbst wenn wir es schaffen könnten, solch eine KImK bereit zu stellen, was würde sie uns letztlich nützen? Das ‚menschliche Maß‘ in der impliziten Bedeutung würde implizieren, dass alle die endlichen Strukturen, die im Menschen konstitutiv für seine Bedeutungsstrukturen sind, ’nachvollzogen‘ werden müssten. Andernfalls würde es zu erheblichen Bedeutungsabweichungen kommen können. Eine ‚Verstärkung‘ wäre dann nur möglich über eine ‚Metaebene‘ zu dieser ’normalen KImK‘, in der (i) eine KImK evtl. ’schneller‘ ablaufen kann, (ii) n-viele KImKs parallel betrieben werden könnten, (iii) es ‚übergeordnete Modelle‘ von Intelligenz gibt, die die einzelnen KImKs als ‚Schnittstellen‘ zu konkreten Menschen benutzen, und zusätzlich eine ‚Meta-Intelligenz‘ besitzen, die ‚darüber hinaus‘ geht. Wie solch eine Intelligenz aussieht, können wir zumindest in Umrissen denken. Sollte sie realisiert sein und sollte sie ‚im gedachten Sinne‘ funktionieren (wahre Freiheit ist schwer regulierbar….), dann wäre immerhin denkbar, dass eine solche KImK+Meta komplexe Abläufe besser überschauen, analysieren und planen könnte wie einzelne kooperierende menschliche Gehirne. Im positiven Fall könnten Menschen dann solche KImK+Meta’s als ‚Assistenzsysteme‘ einsetzen.

13. Wenn man aber sieht, wie jetzt schon einzelne Menschen ganze Nationen mit einfachen Parolen zu Handlungen haben hinreißen können, um wie viel mehr besteht dann solch eine Gefahr, wenn es solche neuen Superintelligenzen geben würde? Auf der anderen Seite, wenn wir sehen, in welchem Ausmaß Menschen gegenüber Menschen grausam und unmenschlich sein können, dann erscheint die gedachte Gefahr durch eine Maschine eher fast harmlos. Wir müssen aber auch ehrlich sagen, dass wir damit noch keinerlei Erfahrungen haben. Dass die Hauptursache für eine ‚Hölle auf Erden‘ bislang immer Menschen waren, das wissen wir. Was die Maschinen uns bringen werden, ist noch offen. Als erstes werden vermutlich wieder Menschen versuchen, diese neuen Werkzeuge in einer Weise zu nutzen, die nur einseitig Nutzen bringen. Wer rettet den Menschen eigentlich vor sich selbst?

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIRER.