SUPERINTELLIGENZ – JUSTIERUNG DES PROBLEMS

KONTEXT

  1. Das Thema Super-Intelligenz wurde in diesem Blog schon öfters angesprochen, nicht zuletzt sogar wie ein Buchprojekt behandelt. Irgendwie habe ich es als wichtig angesehen, aber irgendwie auch nicht so richtig. So hatte ich nach einer ersten Querlektüre des Buches von Nick Bostrom ‚Superintelligence‘ vor etwa einem Jahr dieses wieder beiseite gelegt als nicht wirklich weiter führend.
  2. Die Tage sah ich eine Dokumentation, in der Nick Bostrom mit einem Statement vorkam, in dem er ausdrückte, dass für ihn die Frage der möglichen technischen Superintelligenz eine entscheidende, ja geradezu existentielle Frage sei: wenn dies stattfinden würde – und er war sich sicher, dass der Tag kommen wird – dann sei es um uns Menschen, um den homo sapiens, geschehen.
  3. Es ist schwer, die Ernsthaftigkeit eines Menschen nur von solch einem einzelnen Statement aus zu beurteilen, aber irgendwie wirkte Bostrom bei diesem Statement sehr ernst, fast betroffen. Ob er es wirklich war … es ist offen, jedenfalls reichte dieser Moment aus, um bei mir dies Thema nochmals zu triggern. Denn, in der Tat, rein rational, wenn tatsächlich irgendwann einmal eine technische Superintelligenz realisiert würde, als Algorithmus, der auf irgendwelcher Hardware läuft, dann werden wir Menschen es schwer haben, vorausgesetzt, wir haben uns bis zu diesem Zeitpunkt nicht weiter verändert.
  4. Und dies war (und ist) für mich der neue Gedanke: ja, eine mehr als menschliche Superintelligenz wäre ein gefährlicher Quantensprung und zugleich die Frage: kann der Mensch, der homo sapiens sich nicht weiter entwickeln, so weit, dass er diese Superintelligenz konstruktiv nutzen könnte?

BISHERIGE EVOLUTION BIS HOMO SAPIENS

Die Kondensierung von matrieller Komplexität über Materie, biologischer Zelle, Systemen von Zellen, homo sapiens (hs), hin zu einer biologischen Population, die sich aufgrund der Geistigkeit kulturell und technologisch in eine Vielzahl von Gesellschaften ausgeformt hat. Durch neue Informationstechnologien und künstliche Intelligenz kann die Späre des Wissens (Noos-Sphäre) erweitert werden

Die Kondensierung von matrieller Komplexität über Materie, biologischer Zelle, Systemen von Zellen, homo sapiens (hs), hin zu einer biologischen Population, die sich aufgrund der Geistigkeit kulturell und technologisch in eine Vielzahl von Gesellschaften ausgeformt hat. Durch neue Informationstechnologien und künstliche Intelligenz kann die Späre des Wissens (Noos-Sphäre) erweitert werden

  1. Schaut man sich die Entwicklung des homo sapiens in evolutionärer (und dann auch historischer) Sicht an, dann repräsentiert der homo sapiens ja als homo sapiens eine fantastische Entwicklung von einer ersten einfachen Zelle über komplexe Zellen, zu Zellverbänden, Systemen von Zellen, Systeme mit Gehirn und Bewusstsein, mit Sprache, Kultur, Technologie, ja gar künstlicher Intelligenz. Dies bedeutet, dass der homo sapiens selbst eine Demonstration von fast unfassbaren Veränderungsprozessen ist.
  2. Was man am homo sapiens und den Gesellschaftssystemen mit dem homo sapiens als Mitglied ablesen kann, sind mindestens vier unterschiedliche Niveaus von Wissen: (i) Wissen im Format von DNA-Molekülen eingebettet in eine reproduktionsfähige Zellstruktur; (ii) Wissen im Format von Nervensystemen, die als Gehirne zu komplexen Signalverarbeitungen und Mustererkennungen fähig sind; (iii) Gehirne mit Bewusstsein, die zu symbolischer Kommunikation und komplexen Interaktionen fähig sind (Werkzeuge, Kultur, Technik…); (iv) Künstliches Wissen in Form von Algorithmen in Verbindung mit geeigneter Hardware (analog der DNA-Molekül Struktur einer Zelle mit den Reproduktionsmechanismen).
  3. Die Kombination von (i) bis (iv) stellt eine Transformationsleistung dar, innerhalb deren biologische Strukturen sich in alternativen Wissensformen repräsentieren und verändern können, mehr noch: sie können anders und schneller Eigenchaften der umgebenden Welt aufgreifen, anordnen, kombinieren, um sich so noch besser an die Umgebung anpassen zu können.
  4. Dabei gibt es eine Asymmetrie: während das biologische Wissen sich nur sehr langsam (und eher blind, per Zufall) verändern kann, bietet die technologische Dimension die Möglichkeit, Wissen im Sekundentakt zu akkumulieren, zu strukturieren, neu zu kombinieren, auszutesten, und reale Veränderungen anzustoßen. Diese technologische Veränderungsgeschwindigkeit ist dem neuronalen letztlich haushoch überlegen.
  5. Die Menschheit erlebt aktuell, wie die Verfügbarkeit von technologischem Wissen das eigene Leben in nahezu allen Dimensionen anreichern kann, damit verändert, und fast wie ein Traum erscheint, wenn nicht gerade der eigene Arbeitsplatz weg rationalisiert wird.
  6. Man kann sich aber an seinen fünf Fingern abzählen, dass diese technische Form von Wissen (maschinelle Intelligenz), sollte sie sich vom Menschen emanzipieren können, indem sie ihre eigene Entwicklung steuern könnte, sich mit einer rasenden Geschwindigkeit von Menschen entfernen kann.

TECHNISCHE SUPERINTELLIGENZ

Der homo sapiens hat eine Geistigkeit ausgebildet, die ihn in die Lage versetzt, in Kooperation mit anderen komplexe theoretische Modelle zu entwickeln, die dann in Form von Maschinen real existieren können. Er kann Maschinen bauen, die möglicherweise genau so intelligent sind wie er selbst. Diese intelligente Maschinen können möglicherweise intelligenter werden als er selbst. Die Reproduktionsrate von Maschinen kann schneller sein als die von biologischen Systemen.

Der homo sapiens hat eine Geistigkeit ausgebildet, die ihn in die Lage versetzt, in Kooperation mit anderen komplexe theoretische Modelle zu entwickeln, die dann in Form von Maschinen real existieren können. Er kann Maschinen bauen, die möglicherweise genau so intelligent sind wie er selbst. Diese intelligente Maschinen können möglicherweise intelligenter werden als er selbst. Die Reproduktionsrate von Maschinen kann schneller sein als die von biologischen Systemen.

  1. Da davon auszugehen ist, dass – mit Blick auf den aktuellen Technologiestand – die Abhängigkeit aller technischen Systeme von Algorithmen ins schier unmessbare steigen wird, wird eine technische Superintelligenz im Nu alle technischen Systeme durchdringen und beherrschen können (wenn heute schon Hacker überall eindringen können, weitgehend gefördert durch nationale Geheimdienst, dann wird eine technische Superintelligenz dies mit Links erledigen (zumal die Geheimdienste die Softwaretechnologien unter dem Vorwand der Sicherheit systematisch durchlöchern, um selbst Kontrolle behalten zu können; genau diese Löcher werden die ersten Einbruchstellen der möglichen Superintelligenz sein!)). Dieses Ereignis wird sich nicht mehr rückgängig machen lassen. Rein praktisch könnte man zwar versuchen, alle Maschinen abzuschalten, aber abgesehen davon, dass ja auch das Abschalten heute weitgehend einer algorithmischen Kontrolle unterliegt, würde eine solche umfassende Abschaltung aller algorithmisch gesteuerten technischen Systeme das gesellschaftliche System des homo sapiens völlig zum Erliegen bringen. Vollständiges Chaos innerhalb von Stunden wäre das Ergebnis. Nichts würde mehr funktionieren. Der homo sapiens wäre blitzschnell zurück in an seinem Ausgangspunkt in Afrika, allerdings mit dem Nachteil, das keiner mehr wüsste, wie man in solch einer Situation überlebte. Eine Steinzeit kannte vielleicht nur 100.000 Exemplare des homo sapiens weltweit; viele Milliarden könnten diese einfachen Systeme nicht ernähren.

WELCHE KONSEQUENZEN DEUTEN SICH AN?

  1. Angesichts dieser Perspektive muss man sich vielleicht ernsthaft der Frage stellen (und das meine ich auch im Statement von Bostrom mitgehört zu haben), wie wir uns als Menschen auf dieses Ereignis vorbereiten wollen.
  2. Mit Blick auf die Leichtigkeit, wie menschliche Hacker und Geheimdienste heutige algorithmische Technologien unterlaufen und unter ihre Kontrolle bringen, wäre eine Strategie, die auf Abschottung (ABSCHOTTUNG) setzt, vermutlich wenig aussichtsreich. Eine potentielle technische Superintelligenz würde diese Löcher im Handumdrehen aufspüren und für ihre Zwecke nutzen.
  3. Die Idee, eine potentielle technische Superintelligenz grundsätzlich zu verhindern (VERHINDERN), erscheint auch nicht überzeugend. Das Machtinteresse der Menschen (und die forschende Neugierde) ist so stark, dass irgendwer irgendwo es probieren wird. Wenn es passiert, wird es niemand mehr stoppen. (Eine spezielle Variante wäre, dass es mehr als eine potentielle technische Superintelligenz geben wird, die sich bekämpfen. Das würde uns Menschen aber nicht wirklich helfen).
  4. Bliebe als weitere Möglichkeit noch, dass der homo sapiens sich selbst – mit Unterstützung von technischer Intelligenz ?! – so weit verändert, dass er eine potentielle technische Superintelligenz konstruktiv nutzen könnte (WEITERENTWICKLUNG). Ein schöner Gedanke, aber wie realistisch ist er?
  5. Die atemberaubende bisherige Evolution zeigt, zu welch unfassbaren Veränderungen das biologische Leben fähig war. Wenn man aber die Entwicklung nicht mit den Augen des homo sapiens betrachtet sondern mit den Augen eines – idealisierten – Beobachters von ‚außerhalb‘ (spielerisch hier), dann könnte man auch zu der Arbeitshypothese kommen, dass der homo sapiens möglicherweise im Rahmen der biologischen Evolution nur einen ‚Zwischenstation‘ ist/ war. Will sagen, der homo sapiens markiert zwar eine bemerkenswerte Phase in der biologischen Evolution, aber möglicherweise nicht als Endpunkt, sondern als Durchgangsstation für eine Superintelligenz, die ab dann die Kontrolle der Entwicklung übernehmen wird.
  6. Welche der möglichen Zukünfte ‚wahr‘ sein wird, wird sich unausweichlich zeigen. Wenn es in ein paar Jahrzehnten (oder auch in ein paar Jahrhunderten weiter; was spielt dies für eine Rolle) eine technische Superintelligenz geben wird, mit der die Menschheit nicht mehr mithalten kann, beantwortet sich die Frage von selbst.
  7. Die interessanten Fragen sind also, ob es (i) an der technische Superintelligenz irgendetwas gibt, was sie letztlich doch aus Sicht des homo sapiens verwundbar oder steuerbar macht, oder (ii) ob der homo sapiens in der Lage ist, sein eigens Veränderungspotential ausreichend und schnell genug zu nutzen.
  8. Grundsätzlich hat der homo sapiens drei mögliche Veränderungsdimensionen: (i) Veränderung seiner Erbanlagen in Richtung von mehr Leistungsfähigkeit; (ii) Entwicklung leistungsfähiger Prothesen und Implantate; (iii) Nutzung von technischer Intelligenz für die persönliche Leistungssteigerung (nicht in der Cloud, sondern als Teil der individuellen Person, die allerdings mit der Cloud interagieren kann).
  9. Mit diesen Fragen im Blick werde ich jetzt das Buch von Bostrom (2014, Superintelligence) nochmals in Ruhe durchgehen, und prüfen, wie er diese Fragen beantwortet. Dann sehen wir weiter.

Einen Überblick über alle Artikel von cagent nach Titeln findet sich HIER.

Dieser Eintrag wurde veröffentlicht in Bostrom - Nick, Superintelligenz von cagent. Permanenter Link des Eintrags.

Über cagent

Bin Philosoph, Theologe, Kognitionswissenschaftler und hatte seit 2001 eine Vertretungsprofessur und ab 2005 eine volle Professur im Fachbereich Informatik & Ingenieurswissenschaften der Frankfurt University of Applied Sciences inne. Meine Schwerpunke ab 2005 waren 'Dynamisches Wissen (KI)' und 'Mensch Maschine Interaktion (MMI)'. In dieser Zeit konnte ich auch an die hundert interdisziplinäre Projekte begleiten. Mich interessieren die Grundstrukturen des Lebens, die Logik der Evolution, die Entstehung von Wissen ('Geist'), die Möglichkeiten computerbasierter Intelligenz, die Wechselwirkungen zwischen Kultur und Technik, der mögliche 'Sinn' von 'Leben' im 'Universum'. Ab 1.April 2017 bin ich emeritiert. Neben ausgewählten Lehrveranstatungen widme ich mich jetzt noch mehr den Themen des Blogs, ergänzt um Vorträge, Philosophiewerkstat, Philosophy-in-concert Events sowie einem wissenschaftlichen Buchprojekt. In der Zeit vor 2001 war ich Gründer, Kognitionswissenschaftler, Künstler, Philosoph und Theologe ...

5 Gedanken zu „SUPERINTELLIGENZ – JUSTIERUNG DES PROBLEMS

  1. Gedanken zu 11)
    Meine Frage lautet diesbezüglich: Sind die Halbautomaten nicht sehr viel schlimmer als eine hypothetisch mögliche Superintelligenz? Unter Halbautomaten verstehe ich Programme die jetzt bereits automatisch „Entscheidungen“ treffen, die jedoch als quasi „eingefrorene Entscheidungen“ des Programmierers angesehen werden müssen. Es führt zu purer Illusion darüber hinweg zu sehen, das es bis Heute kein einziges System gibt das wirklich autonom ist, auch wenn es auf den ersten Blick so aussieht. Der Unterschied besteht lediglich in der Zeitstruktur dessen was wir Entscheidung nennen. Während ein Lockführer auf ein Signal an der Strecke reagiert und einen Hebel umlegt, reagiert das Programm einer automatischen Lokomotive entlang mitunter sehr komplizierter jedoch streng hierarchisch geordneter 1 oder 0 Situationen. Denkt man sich ein ganzes Verkehrsnetz bestehend aus, in diesem Sinne, „autonomen“ Systemen (Autos, S- und U-Bahnen, Aufzüge und Transportsysteme in Gebäuden usw.) ist es sehr wahrscheinlich das eine so hohe Zahl solcher „eingefrorenen Entscheidungen“ darin enthalten ist das eine Kontrolle gegen unmöglich tendiert.

    Es wäre also letzlich nicht eine wirklich autonome Superintelligenz die zu einem vollkommenen Kontrollverlust durch den Menschen führt, sondern schlicht und einfach die exponetiell steigende Anzahl der in die Systeme implementierten „eingefrorenen Entscheidungen“.

    • AUSGANGSPUNKT

      Angeregt durch die Nr.11 des Eintrags wirft Pagan eine Frage auf, die ich mit seiner folgenden Formulierung aufnehmen möchte:

      „Es wäre also letztlich nicht eine wirklich autonome Superintelligenz die zu einem vollkommenen Kontrollverlust durch den Menschen führt, sondern schlicht und einfach die exponentiell steigende Anzahl der in die Systeme implementierten „eingefrorenen Entscheidungen““.

      Ich würde diese Formulierung mal wie folgt ‚übersetzen‘ (darin kann ich Pagan möglicherweise in seiner Intention verfehlen): Diese Formulierung unterscheidet zwischen zwei unterscheidbaren Zuständen: (i) Es gibt real eine maschinelle Superintelligenz und (ii) es gibt noch keine solche; allerdings gibt es sehr wohl eine Welt voller Algorithmen (= Programme, Software), die alle jene Prozesse in der Gesellschaft steuern, die sich mit solchen Algorithmen – kostensparend für den Betreiber – steuern lassen. Ein Kennzeichnen der Algorithmen ohne Superintelligenz soll sein, dass sie sich nicht selbständig ändern können. Sie sind fixiert in dem Sinne, dass bei Vorliegen eines gewissen Input-Signals i aus einer definierten Menge von möglichen Inputs INP entsprechend der algorithmischen Vorschrift f ein bestimmtes Outputsignal o aus einer möglichen Menge von Outputs OUT erzeugt wird (symbolisch: f(i)=o).

      ROLLE DES PROGRAMMIERERS: IMPLIZITES WELTMODELL

      Ich nehme weiterhin an, dass diese algorithmischen Vorschriften von Menschen (genannt Programmierer, Softwareingenieur, …) erstellt werden (und nicht von einer maschinellen Superintelligenz, da diese nach Voraussetzung noch nicht verfügbar ist), die zum Zeitpunkt der Erstellung einer Vorschrift f ein bestimmtes Bild von der Welt (ein Modell M) in ihrem Kopf haben, und versuchen, entsprechend diesem Bild (Modell) eine Vorschrift zu verfassen, die wichtige Eigenschaften dieses Modells in einer algorithmischen Vorschrift f umsetzt. Dabei muss man unterstellen, dass das Modell M im Kopf eines Programmierers aus vorausgehenden Lernprozessen L entstanden ist, die vielerlei Einzelmomente umfassen (Wahrnehmen, Abstrahieren, Vergleichen, Beziehungen feststellen,…). Man unterstellt also eine reale Welt W, die von einem Programmierer Progr mittels Lernprozessen L im Programmierer ein ‚Modell der Welt‘ M erzeugt, das gewisse Eigenschaften der Welt W kognitiv repräsentiert, also L_Progr:W ==> M_Progr. Dabei kann es sein, dass verschiedene Programmierer Progr1, …, Progrn von der gleichen Welt unterschiedliche Modelle M_Progr_i erzeugen, ohne dass sie dies merken. Außerdem kann natürlich ein Modell M mit seinen angenommenen Eigenschaften verglichen mit der auslösenden realen Welt W partiell ‚falsch‘ sein (falsch := die Eigenschaften im Modell M entsprechen nicht den Eigenschaften, wie sie in der realen Welt auftreten).

      WELTMODELL UND PROGRAMM

      Die Übersetzung des Modells M in eine algorithmische Vorschrift f ist ein eigener, komplexer Übersetzungsvorgang, der ‚implizit‘ ‚im Kopf‘ des Programmierers abläuft. Verschiedene Programmierer können hier zu unterschiedlichen Übersetzungen kommen (das ist der Standardfall). Es kann also ein falsches Modell M in unterschiedliche algorithmische Vorschriften f übersetzt werden. In abschließenden Validierungsprozeduren versucht man normalerweise, mögliche Abweichungen zwischen unterstellten Modellen M der realen Welt W sowie dem Verhalten einer algorithmischen Vorschriften f zu überprüfen und im Falle von Abweichungen zu korrigieren. Dies ist aber bei komplexen Modellen M und den zugehörigen komplexen algorithmischen Vorschriften nur sehr bedingt möglich (die algorithmischen Vorschriften (genannt Software)) ist heutzutage in der Regel (!) bei Auslieferung nicht fehlerfrei und es ist quasi Standard, dass die Hersteller die finale Fehlersuche und Behebung vom Kunden machen lassen, der dafür auch noch bezahlen muss.

      SOFTWARE IM EINSATZ

      In dem Maße, wie nicht-lernfähige Software im großen Maßstab eingesetzt wird (z.B. auch in Verwaltungen von Firmen und in Behörden), ergibt sich im Alltag jeden Tag in vielen Fällen die Situation, dass reale Anwendungssituationen mit dem in der Software unterstellen Modell der realen Welt nicht übereinstimmen. Die Standardantwort der verantwortlichen Personen ist dann immer, dass sie nichts tun können, weil „die Software es nicht erlaubt“. Wenn es um Behörden geht, die mit Menschen zu tun haben, denen die geltenden Gesetze gewisse Rechte zusprechen, führen diese Grenzen der Software dazu, dass das geltende Recht durch Verweis auf unfähige Software eingeschränkt und damit verändert wird (soziale Bereiche, juristische Vorgänge, medizinische Vorgänge, …). Diese alltägliche Rechtsbeugung geht einher mit einer Degradierung der beteiligten Menschen, sowohl auf Ausführungsebene wie auch auf Seiten des ‚Empfängers‘: die Menschen könnten aufgrund ihrer menschlichen Fähigkeiten unangepasste Situation ad hoc möglicherweise lösen, aber durch die Bindung an die Software können sie von ihren Fähigkeiten keinen Gebrauch machen.

      Auf der anderen Seite gilt aber auch, dass bei der Komplexität vieler Vorgänge heute ein Vorgehen ohne unterstützende (und darin normierende) Software, eine geforderte Gleichförmigkeit und Zuverlässigkeit der Prozesse vermutlich auch nicht garantiert werden könnte. Hier stehen verschiedene Zielgrößen in einem Zielkonflikt.

      Ich würde das Problem hier also zunächst mal darin sehen, mit welchen Vorstellungen (= Modellen) eine Gesellschaft ihre eigene Realität W beschreibt, anhand deren dann nachfolgende algorithmische Vorschriften (= Programme, Software) diese umsetzen. Diese Modell sind oft nicht so klar.

      VERSTEHEN VON SOFTWARE?

      Sind die Modelle M dann in Software übersetzt, also ein Modell_W in Form eines Programms Progr_M_W, dann versteht im Prinzip nur noch ein Programmierer dieses Modell im Programmformat. Diese Programme sind heute meist so komplex, dass zu deren Erstellung und deren Betrieb meist viele Programmierer notwendig sind (hunderte, tausende…); außerdem sind die Programmierer nicht konstant: je mehr Jahre Programme im Betrieb sind, wechseln Programmierer, verändert sich die Zusammensetzung der Teams, und am Ende gibt es nicht mehr den oder die ‚Autoren‘ eines Programms, sondern es gibt primär ein Programm, an dem ganze Generationen unterschiedlicher Programmierer mitgewirkt haben, und letztlich gibt es niemanden mehr, der als einzelner wirklich noch versteht, wie das Programm genau funktioniert. (Dies gilt auch dann, wenn Teile der Software heute ‚automatisiert‘ erstellt wird, d.h. die Programmierer beschreiben nur noch abstrakte Modelle und eine Übersetzungssoftware transformiert diese Modelle in Programmkode, der dann das endgültige Programm bildet. Kein Programmierer sieht dann mehr diesen endgültigen Kode direkt.)

      SOFTWARE UND DEMOKRATIE

      Dies Black-Box Situation führt letztlich dazu, dass demokratische Prozesse faktisch unterlaufen werden und bei einer fortschreitenden Digitalisierung im Black-Box Stil Demokratien sich durch undemokratische Software selbst abschaffen: ohne Software kann man nichts mehr tun, aber die Software versteht niemand mehr, sie bildet eine neue Realität, die quasi für sich steht, unangreifbar (zumindest wird dieser Eindruck erzeugt).

      Also, auch ohne Bezugnahme auf die 1-0-Argumente, stellt nicht-lernende Software eine massive Bedrohung demokratischer Gesellschaften dar und man kann sehr wohl die Frage stellen, ob wir nicht in vielen Bereichen schon einen Zustand erreicht haben, in dem wir unsere demokratischen Grundlagen zumindest erodiert haben, wenn nicht mehr. (Beispiele von Diskussionen hierzu: Algorithmen-TÜV? und Algorithmen-TÜV2 )

      UND DANN KOMMT LERNENDE SOFTWARE

      Dazu muss man aber anmerken, dass wir schon jetzt in einer Situation leben, wo das zuvor geschilderte Szenario schon überholt ist. Mittlerweile gibt es Software im Einsatz, die ansatzweise (nicht vollständig) lernen kann und sich entsprechend – in begrenztem Umfang – anpassend (adaptiv) verhalten kann. Kombiniert mit dem Black-Box Format der Software erschwert dies eine kritische demokratische Würdigung dieser Software zusätzlich.

      NULLEN UND EINSEN EHER IRREFÜHREND

      Das Bild von den Nullen und Einsen: von geisteswissenschaftlicher Seite wird gerne das Argument bemüht, dass Computer auf der Basis von Nullen und Einsen operieren und deswegen grundsätzlich weniger wirklichkeitsangepasst sind wie biologische Systeme. Ich glaube, dass diese Argumentation sehr in die Irre führt. Eine nähere Betrachtung des menschlichen Gehirns kann sehr schnell darüber belehren, dass die neuronalen Zellen sich von anderen Zellen gerade darin unterscheiden, dass sie in der Lage sind (mit all ihrer Komplexität) definierte Ausgangssignale zu erzeugen, die dann entsprechend definierte Eingangssignale bilden können. Diese kann man ohne Bedeutungsverlust auch als Nullen und Einsen interpretieren. Denn nur, wenn solch ein Signal (1) auftritt, kann etwas passieren, bzw. ebnen nicht, wenn kein solches Signal (0) auftritt. Deswegen kann man biologische neuronale Schaltkreise auch relativ leicht mit technischen neuronalen Schaltkreisen nachbilden. Die interessanten Problemstellungen liegen auf anderen Ebenen.

      • Kurze Vorbemerkung: Ich versuche meine Kommentare möglichst kurz zu halten, denn in meinen Augen ist ein Blog kein Diskussionsforum. Da jedoch die Themen die Cagent hier in seinem Blog verhandelt wirklich sehr tiefgehende und komplexe Perspektiven aufspannen sind solche Kommentare natürlich immer ’zu kurz’ und wecken vielleicht manchmal sogar den Eindruck der ’Krittelei’. Die selbstauferlegte Verpflichtung zur Kürze führt zwangsweise dazu das bestimmte Zusammenhänge nur mit einer mehr oder weniger sinnvollen Metapher angedeutet werden können. Metaphorik ist eine Kunst und wenn die daneben geht sieht das ganze Ideengebäude schief aus.

        Die Metapher der ’eingefrorenen Entscheidung’ als eine Beschreibung des Inhaltes den ein Programmierer mit Hilfe der Boolschen Algebra zu einem Algorithmus formt ist alledings keine schlechte Metapher. Sie trägt der Tatsache Rechnung das diese Boolsche Algebra – quasi als eine Art ’Logik des Computers’, lediglich mit einer Peirce-Funktion (NOR-Gatter/NICHT ODER) auskommt um daraus (0) oder (1) zu generieren. (0) oder (1) kann auch bedeuten high or low, open or close usw. usf … oder Strom/kein Strom. Anders ausgedrückt: Ein System das darauf aufbaut kann fast unendlich kompliziert sein, aber bei der Rückverfolgung seiner Prozessabläufe auf diese Ebene gebracht werden. Egal ob ich bei der Beschreibung die Pyramide von unten nach oben begehe oder umgekehrt, Kompliziertheit bedeutet strenge Hierarchie der Entscheidung. (Im Gegensatz zu Hetearchie mit nebeneinander und voneinander unabhängigen Ebenen der Entscheidung in einem System = Komplexität)

        Die Frage die ich mir dann stelle ist die:
        Wenn wir Algorithmen als ’Intelligent’ bezeichnen, wenn wir den von ihren Handlungsanweisungen gesteuerten Systemen ’Autonomie’ unterstellen, wenn wir davon sprechen das diese Programme ’lernen’ und daraus folgern das sie etwas ’wissen’, dann nehmen wir Begriffe die wir bisher zur Beschreibung der Phänomene lebender Organismen oder der Eigenschaften des Menschen nutzten und übertragen diese – ratiocinatio per analogiam – auf das was wir an “toter“ Materie beobachten. Man muss zugeben das diese Analogieschlüsse enorm verlockend sind und den Beobachter geradezu dazu auffordern die Phänomene in dieser Art zu beschreiben. Aber nicht erst bei dem Diskurs über Fragen der Ethik die in diesen Zusammenhängen auftauchen geraten diese Schlüsse zu Kurzschlüssen und werden zur analythischen Falle. Darüber hinaus wirkt sich diese Art der Beschreibung auch umgekehrt auf die Beschreibungen jene Phänomene aus von denen man sie hernimmt. Die Beschreibung eines Computers als Gehirn führt zu einer Beschreibung des Gehirns als Computer, die Analogie zwischen Algorithmus und ’denken’ führt dazu denken algorythmisch zu beschreiben usw. usf. kurz, alleine dies führt dazu das sich die Analogien quasi selbst bestätigen. Bei dieser Art Annäherung von beiden Seiten im Diskurs könnte man in Abwandlung von Kants Begriff von einem “transzendentalen Scheins“ in abgeschwächter Form sprechen (abgeschwächt = nicht unumgänglich).

        Zu dem Thema ein Beispiel:
        Das Beispiel kann man unter der Überschrift ’Autonomie der Maschine?’ einordnen. Der Analogieschluss dazu kommt aus der biologischen Terminologie für ein Phänomen (Homöostase = Selbstregulation) das man als Fähigkeit schon den rudimentärsten Formen lebender Organismen unterstellt. Man kann auch sagen mit vielen anderen Eigenschaften zusammen ist diese Selbstregulation die Voraussetzung für Stoffwechsel im weitesten Sinne. Um allerdings in dieser Art selbstregulierend zu sein, muss man bereits auf dieser Ebene des Lebens eine weitere “kognitive“ Fähigkeit dazu denken die vorausgesetzt werden muss, nämlich Selbstreferenz. Selbstreferenzialität ist die Fähigkeit eines Systems zwischen sich selbst und seiner Umgebung einen Unterschied zu “erkennen“. Selbstreferenz bedeutet aber auch anders ausgedrückt ’Selbstrückbezüglichkeit’. Kurz gesagt (vielleicht zu kurz): genau diese ’Selbstrückbezüglichkeit’ ist mit der oben angesprochenen “Logik des Computers“ nicht realisierbar. (siehe u.a. auch Russels Typenlehre, hier: ‚vicious circle principle‘) Man kann also ohne Einschränkung sagen, das heute keine einzige Maschine existiert die auch nur annähernd die Eigenschaft hat die schon die ursprünglichste Form des Lebens zeigt, nämlich eine Autonomie wie sie der o.a. Analogieschluss nahe legt.

        • In seinem Kommentar vom 6.4.2017 um 13:45 greift Pagan wieder Punkte aus der Diskussion auf.

          LÄNGE DER KOMMENTARE – STIL

          Wie er selbst eingangs bemerkt, ist es angesichts der Komplexität der zur Diskussion stehenden Sachverhalte kaum möglich, diese Überlegungen ’sehr kurz‘ zu halten; es bleibt immer ein Balanceakt zwischen Kürze und Verständlichkeit. Ich kann da nur zustimmen. Entsprechend muss man auch die literarische Form der Sache angemessen wählen.

          ALGORITHMEN UND INTELLIGENZ

          In Abänderung der der Reihenfolge seiner Argumentation möchte ich den Punkt mit den sogenannten ‚intelligenten Algorithmen‘ vorziehen.
          Pagan nimmt als Ausgangspunkt an, dass Algorithmen als ‚intelligent‘ bezeichnet werden und stellt dann einige Argumente vor, warum dies aus seiner Sicht fragwürdig ist.
          Ich möchte meinerseits darauf hinweisen, dass für mich der Begriff der ‚intelligenten Maschine‘, noch mehr der Begriff der ‚technischen Superintelligenz‘, NICHT klar ist. Ich greife diese Metaphern auf, weil sie im Umlauf sind und jeder so tut, als ob es klar sei, was es ist. Für mich ist in keiner Weise klar, was damit gemeint ist. Ich nehme diese – im Umlauf befindlichen – Begriffe als Ausgangspunkt meiner Untersuchung. Es ist zu klären, wie der Terminus ‚Intelligenz‘ überhaupt generell definiert werden sollte (nur weil jeder ihn benutzt heißt dies noch nicht, dass er definiert ist), und wie dieser definierte Begriff sich dann auf Maschinen und biologische Systeme anwenden lässt; worin sind sie ähnlich, worin unähnlich, und was würde aus diesem Vergleich an weiteren Fragen oder Feststellungen folgen (ich habe noch kein Buch innerhalb der Informatik gefunden, in dem im allgemeinen Sinn definiert wird, wie ‚Intelligenz‘ Hardware- und Software-unabhängig im allgemeinen Fall definiert werden sollte; es gibt allerdings viele spezielle Begriffe).

          COMPUTER UND GEHIRN

          Mein Hinweis im letzten Kommentar, dass die Thematik von Nullen und Einsen nicht auf die Computerhardware beschränkt ist, sondern sich im menschlichen Gehirn auch wiederfindet, konnte dahingehend missverstanden werden, dass ich Computer und Gehirn gleichsetze. Dies ist in der Tat missverständlich, da die hier angesprochenen Beziehungen vielfältiger Art sind.
          Für die Diskussion ist es wichtig, dass man sich klar macht, dass der theoretische Begriff ‚Computer‘ nicht über irgendeine Hardware (eventuell mit boolscher Logik) definiert wird, sondern völlig unabhängig von jeder Hardware ist! Bis heute ist der theoretische Leitbegriff für einen berechenbaren Prozess die ‚Turingmaschine‘ von Alan M.Turing (1936/7). Dies ist keine reale Maschine sondern ein logisch-mathematisches Konzept. Jeder heute bekannte reale Computer ist nur ein Beispiel (eine Instanz) für dieses Konzept. Wie reale Computer gebaut sind (aus Siliziumchips, oder anderem Material, oder aus biologischen Zellen, oder aus Quantenstrukturen (!)…) spielt keine Rolle. Sie alle sind nur mögliche Realisierungsformen eines allgemeinen Konzepts.
          Wenn wir also diskutieren wollen, ob einem Computer c prinzipiell bestimmte Eigenschaften X zukommen können oder nicht – also z.B. X(c) oder nicht-X(c) – , dann müsste man dies immer mit Bezug auf das allgemeine Konzept des Computers, nämlich der Turingmaschine, tun (oder mit Bezug auf ein Nachfolgekonzept zur Turingmaschine, falls das Konzept der Turingmaschine irgendwann mal durch ein ’noch besseres‘ ersetzt würde) (Entsprechend wäre für die Diskussion der Frage, ob Computer c ‚INTELLIGENT‘ sind oder nicht – INTELLIGENT(c) oder nicht-INTELLIGENT(c) – wichtig, (i) zu klären was man denn allgemein unter INTELLIGENZ verstehen will und (ii) zu klären, ob und wie ein Computer c im theoretischen Sinn solch eine Eigenschaft prinzipiell haben könnte oder nicht.).
          Die Einsen und Nullen oder gar eine boolsche Logik sind nicht wesentlich für eine Turingmaschine (und damit nicht für einen Computer im theoretischen Sinn).

          BIOLOGISCHE SELBSTREGULATION – SELBSTREFERENTIALITÄT – SELBSTRÜCKBEZÜGLICHKEIT – MEHR ALS BOOLSCHE LOGIK

          Um die Besonderheit eines biologischen Systems gegenüber einem technischen System heraus zu stellen, verweist Pagan auf grundlegende Begriffe wie Homöostase (Selbstregulation), dazu – auf einer ‚höheren‘ Ebene eine Selbstreferenzialität, die nach Pagan eine ’Selbstrückbezüglichkeit’ impliziert.
          Diese Begriffe kommen im Kontext der biologischen Diskussion vor. Aber ich denke, man sollte berücksichtigen, dass bei biologischen Systemen unterschiedliche Komplexitätsebenen vorliegen: beginnend bei zellähnlichen chemischen Umgebungen mit passenden Molekülen hin zu einer einzelnen Zelle, dann kooperierende lose verknüpfte Zellverbände, dann hoch strukturierte Zellverbände mit komplexen Kommunikationsprozessen mittels chemischer Botenstoffe und neuronalen Signalen, diese dann weiter verdichtet in einem komplexen Gehirn, das in sich sehr viele Verarbeitungszentren und -ebenen haben kann.
          Je nach biologischer Komplexität wären die Begriffe ‚Selbstregulation‘, ‚Selbstreferenzialität‘ sowie ’Selbstrückbezüglichkeit’ dann jeweils ganz anders zu definieren, da die Rahmenbedingungen sehr unterschiedlich sind.
          Aus meiner Sicht ist ein direkter Vergleich zwischen biologischen Systemen – hier speziell dem homo sapiens – und sogenannten intelligenten Maschinen frühestens dann möglich, wenn wir die zuvor geforderte begriffliche Klärung von ‚Intelligenz‘ für den allgemeinen Fall des Computers geleistet haben und wir ferner ein klares Konzept der vielfältigen Leistungen des homo sapiens haben. Der Begriff der Intelligenz deckt – sehr wahrscheinlich – nur einen kleinen jener Fähigkeit ab, die den homo sapiens auszeichnen.

          NULLEN UND EINSEN UND GEHIRN

          Noch eine Anmerkung: Bei dem Reden von ‚Nullen und Einsen‘ sollte man vielleicht auch noch unterscheiden zwischen dem logisch-mathematischen Begriff der Boolschen Logik und dem Auftreten von realen Phänomen, die man mit den Bezeichnungen ‚Null‘ bzw. ‚Eins‘ benennen kann. Man kann weitgehend das Auftreten von Ladungsereignissen im menschlichen Nervensystem mit ‚0‘ und ‚1‘ benennen und bekommt dann im Bereich der Sinnesorgane und den nachgeschalteten neuronalen Schaltkreisen Verteilungen von Nullen und Einsen.
          Am Beispiel des menschlichen Nervensystems wird sehr schnell klar, dass ein einzelnes Null- oder Eins-Ereignis als solches keine Bedeutung hat. Es gewinnt seine Bedeutung ausschließlich durch den Kontext. So kann ein Eins-Ereignis in der einen Nervenleitung eine visuelle Eigenschaft kodieren, in einer anderen ein akustisches oder taktiles usw. In nachgeschalteten neuronalen Schaltkreisen bedeutet ein Eins-Ereignis plötzlich den zeitlichen Unterschied zwischen zwei akustischen Ereignissen in den beiden Ohren oder repräsentiert die Tiefe beim Sehen, usw. Begriffe wie ‚Eins‘ und ‚Null‘ sind letztlich nur Namen von Ereignissen im Kontext eines abstrakten Systems von Ereignissen und Beziehungen, die wiederum über Kontexte (z.B. den Körper in einer realen Umgebung) unterschiedliche andere Ereignisse kodieren können. Mit boolscher Logik muss dies alles zunächst überhaupt nichts zu tun haben.
          Dennoch ist es ein Faktum, dass man die neuronalen Schaltkreise des Gehirns mittels digitaler Schaltkreise modellieren‘ kann und dass diese ‚Modelle‘ das ‚Verhalten‘ der neuronalen Schaltkreise nahezu beliebig genau ’simulieren‘ können. Welche Schlüsse man daraus dann wieder ziehen kann, ist eine wissenschaftsphilosophische Frage, die vermutlich nicht durch Rekurs auf die Feinstruktur dieser neuronalen und maschinellen Maschinerie beantwortet werden kann, sondern auf mehr allgemeineren Ebenen. Ich habe nicht den Eindruck, dass diese Fragestellung bislang befriedigend gelöst ist, weil schon in der Ausgangslage viele Ungereimtheiten auftreten.

  2. Wenn man die gegenwärtige politisch/ökonomische Situation in vielen Teilen der Welt betrachtet ist es vielleicht keine Übertreibung mehr zu vermuten das wir uns in einer Umbruchphase (um nicht von Revolution zu sprechen) befinden. Es ist etwas anders, für uns “Kindern des Kapitalismus“. Es ist etwas mehr als der „ganz normale Wahnsinn“, den man ja kennt und von dem man sagen könnte er sei epigenetisch ins ‚denken’ und ‚verhalten’ längst eingebaut, als Fitness für den Alltag im 21ten Jahrhundert. Aber man kann sich kaum wehren gegen das Gefühl das sich, die ohne hin schon schräge Ebene auf der wir uns wähnen, noch ein par Grade mehr in eine Richtung neigt.

    Deshalb wirkt es auf den ersten Blick etwas abgehoben wenn man anderen erklärt, man würde sich für KI, AL oder gar für ’Singularity’ interessieren. Die anscheinend berechtigte Frage lautet dann oft: Hast du keine anderen Probleme? Für jemanden der schon lange unterwegs ist in diesem Thema und der zumindest einen Eindruck von der ungeheuren Komplexität der Fragen bekommen hat die darin auftauchen, ist es dann nicht leicht darauf eine schnelle oder gar befriedigende Antwort zu geben.

    Ich habe kürzlich einem Bekannten auf eine ähnlich herausfordernde Frage geantwortet: Ich bin davon überzeugt, das alles das was hinter der Frage nach “Superintelligenz“ steckt uns in unserem Selbstverständnis als Mensch zutiefst betrifft. Mehr noch; auf der Rückseite dieser Frage nach Superintelligenz steht die Frage “Was ist der Mensch?“. In diesem Zusammenhang wird diese Frage sogar rückhaltloser gestellt als je zu vor und eine Beantwortung in dieser Art, würde hineinwirken in die tiefsten Schichten unserer Kultur.

    Es wird oft über Projekte wie SETI oder generell über den kulturellen Impact spekuliert den eine Begegnung der “dritten Art“ für die Menschheit hätte. Tatsächlich gibt es in fast allen Weltreligionen, insbesondere in der Kosmologie des Hinduismus und Buddhismus, schon immer mythische Bezüge zu jedweder Form von Leben, auch über die Grenzen der eigenen Welt hinaus. Die Motive solche Begegnungen in die identitären Narrative zu intergrieren sind angelegt in fast allen Kulturen dieser Erde, insbesondere in jenen die mit der christlichen Seefahrt einst die Globalisierung der Welt begannen.

    Dagegen würde eine verstandene (konstruierte), oder unverstandene (alchemistische) Realisierung einer Superintelligenz die Menschheit wirklich vollkommen unvorbereitet treffen. Auch wenn viele Visionen existieren, von den barocken Schachspielern im 16ten Jahrhundert über den Mythos des Golem und Mary Shelley’s Frankenstein, bis zu den fantastsichen Albträumen aus dem Hollywood unserer Tage, diese Art von Parusie hatte kein Prophet im Programm. Die Vorstellungen von der Ankunft des Messias jedenfalls sahen irgendwie anders aus.

Schreibe einen Kommentar