Archiv für den Monat: März 2019

Populismus – Kultur der Freiheit – Ein Rezept?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 24.März 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

In einem Beitrag vom 7.Februar 2019 hatte ich mir die Frage gestellt, warum sich das alltägliche Phänomen des Populismus nahezu überall in allen Kulturen, in allen Bildungsschichten — eigentlich auch zu allen Zeiten — mit einer Leichtigkeit und Selbstverständlichkeit findet, die einem Angst und Bange machen kann. Und gerade in der Gegenwart scheinen wir geradezu wieder eine Hochblüte zu erleben. In diesem ersten Beitrag hatte ich einige Faktoren angesprochen, die unser normales menschliches Lern- und Sozialverhalten charakterisieren und die genügend Anhaltspunkte liefern, um eine erste ‚Erklärung‘ dafür zu geben, warum das Auftreten populistischer Tendenzen keine Überraschung ist, sondern eben genau in den Strukturen unserer personalen Strukturen als grundlegende Überlebensstrategie angelegt sind. In einem Folgebeitrag am 11.Februar 2019 habe ich diese Gedanken ein wenig weiter verfolgt. Auf die Frage, wie man der starken Verhaltenstendenz des Populismus gegensteuern könnte, habe ich versucht, anhand der Hauptfaktoren des alltäglichen Lernens und der Gruppenbildungen Ansatzpunkte zu identifizieren, die normalerweise die Bildung populistischer Meinungsbilder begünstigen bzw. deren Modifikation dem möglicherweise entgegen wirken könnte. Durch zahlreiche Gespräche und Veranstaltungen der letzten Wochen haben sich die Themen für mich weiter entwickelt bis dahin, dass auch erste Ideen erkennbar sind, wie man den starken Verhaltenstendenzen in jedem von uns möglicherweise entgegen wirken könnte. Gegen Verhaltenstendenzen zu arbeiten war und ist immer sehr herausfordernd.

POPULISMUS – Eine Nachbemerkung

Bislang wird das Thema ‚Populismus‘ in der Öffentlichkeit tendenziell immer noch wie eine ‚religiöse‘ Frage behandelt, stark versetzt mit ‚moralischen Kategorien‘ von ‚gut‘ und ‚böse‘, mit starken Abgrenzungen untereinander, vielfach fanatisch mit der Bereitschaft, diejenigen mit der ‚anderen Meinung‘ zu bekämpfen bis hin zur ‚Ausrottung‘. Diese Meinungen verknüpfen sich mit Ansprüchen auf politische Macht, oft mit autoritären Führungsstrukturen. Die Frage nach Transparenz und Wahrheit spielt keine zentrale Rolle. Und, falls man zu einer Meinungsgruppe gehört, die ‚anders‘ ist, versteht man selten, warum die einen jetzt so unbedingt von Meinung A überzeugt sind, weil man selbst doch eher B oder C favorisiert. Das verbal aufeinander Einschlagen und das Demonstrieren mit Gegenparolen ändert an den grundlegenden Meinungsunterschieden wenig; es fördert möglicherweise eher die Abgrenzung, verhärtet die Fronten.

Dies alles ist nicht neu; die vielen blutigen Religionskriege in der Vergangenheit sind nur ein Beispiel für das Phänomen gewalttätiger Populismen; viele weitere Beispiele liesen sich anführen.

Die Tatsache, dass wir heute, im Jahr 2019, nach vielen tausend Jahren Geschichte mit einer unfassbaren Blutspur hervorgebracht durch Meinungsunterschiede, verteufelnden Abgrenzungen, Schlechtreden ‚der Anderen‘, immer noch, und zwar weltweit (!), in diese Muster zurückfallen, ist ein sehr starkes Indiz dafür, dass die Ursachen für diese Verhaltensmuster tief in der menschlichen Verhaltensdynamik angelegt sein müssen. Bei aller Freiheit, die jedem biologischen System zukommt und dem Menschen insbesondere, scheint es genügend Faktoren zu geben, die die Weltbilder in den Köpfen der Menschen in einer Weise beeinflussen, dass sie im großen Maßstab Bilder von der Welt — und darin auch von den anderen und sich selbst — in ihren Köpfen mit sich herumtragen, die sie in maschinenhafte Zombies verwandeln, die sie daran hindern, die Differenziertheit der Welt wahr zu nehmen, komplexe dynamische Prozesse zu denken, mit der Vielfalt und der Dynamik von biologischem Leben, ökologischen und technischen Systemen nutzbringend für das Ganze umzugehen.

Viele kluge Leute haben dazu viele dicke Bücher geschrieben und es kann hier nicht alles ausgerollt werden.

Dennoch wäre eine sachliche Analyse des Populismus als einer starken Verhaltenstendenz äußerst wichtig als Referenzpunkt für Strategien, wie sich die Menschen quasi ‚vor sich selbst‘, nämlich vor ihrer eigenen, tief sitzenden Tendenz zum Populismus, schützen könnten.

Eine Antwort kann nur in der Richtung liegen, dass die jeweilige Gesellschaft, innerhalb deren die Menschen ihr Leben organisieren, in einer Weise gestaltet sein muss, dass sie die Tendenzen zur Vereinfachung und zur überdimensionierten Emotionalisierung im Umgang miteinander im alltäglichen Leben gegen steuern. Für eine angemessene Entwicklung der grundlegenden Freiheit, über die jeder Mensch in einer faszinierenden Weise verfügt, müssten maximale Anstrengungen unternommen werden, da die Freiheit die kostbarste Eigenschaft ist, die die Evolution des Lebens als Teil der Evolution des ganzen bekannten Universums bis heute hervorgebracht hat. Ohne die Nutzung dieser Freiheit ist eine konstruktive Gestaltung der Zukunft im Ansatz unmöglich.

KULTUR DER FREIHEIT – Eine Nachbemerkung

In dem erwähnten Beitrag vom 11.Februar 2019 hatte ich erste Gedanken vorgestellt, welche Faktoren sich aus dem Geschehen der biologischen Evolution heraus andeuten, die man berücksichtigen müsste, wollte man das Geschenk der Freiheit gemeinsam weiter zum Nutzen aller gestalten.

Neben der Dimension der Kommunikation, ohne die gar nichts geht, gibt es die fundamentale Dimension der jeweiligen Präferenzen, der ‚Bevorzugung von Zuständen/ Dingen/ Handlungen …, weil man sich von ihnen mehr verspricht als von möglichen Alternativen.

KOMMUNIKATION

Obwohl die Menschen allein in den letzten 100 Jahren viele neue Technologien entwickelt haben, die den Austausch, den Transport von Kommunikationsmaterial hinsichtlich Menge und Geschwindigkeit dramatisch gesteigert haben, ist damit das zugehörige Verstehen in den Menschen selbst nicht schneller und tiefer geworden. Die Biologie des menschlichen Körpers hat sich nicht parallel zu den verfügbaren Technologien mit entwickelt. Auf diese Weise entstehen völlig neue Belastungsphänomene: zwar kann der Mensch noch wahrnehmen, dass es immer schneller immer mehr gibt, aber diese Überflutung führt nur begrenzt zu mehr Verstehen; überwiegend macht sich heute in dieser Situation ein wachsendes Ohnmachtsgefühl breit, eine Hilflosigkeit, in der nicht erkennbar ist, wie man als einzelner damit klar kommen soll. Die gleichzeitige Zunahme von ‚falschen Nachrichten‘, ‚massenhaften Manipulationen‘ und ähnlichen Phänomenen tut ihr Übriges, um in den Menschen das Gefühl zu verstärken, dass ihnen der Boden unter den Füßen gleichsam weggezogen wird. Wenn sich dann selbst in offiziellen demokratischen Gesellschaften Politiker (und Teile der Verwaltung oder Staatstragenden Institutionen) diesem Stil des Verbergens, Mauerns, geheimer Absprachen und dergleichen mehr anzuschließen scheinen, dann gerät das gesellschaftliche Referenzsystem ganz gefährlich ins Schwimmen. Was kann der einzelne dann noch tun?


PRÄFERENZEN (WERTE)

Der andere Faktor neben der aktuell mangelhaften Kommunikation sind die Präferenzen, nach denen Menschen ihr Lernen und Handeln ordnen. Ohne irgendwelche Präferenzen geht gar nichts, steht jedes System auf der Stelle, dreht sich im Kreis.

Ein Teil unserer Präferenzen ist in unserem Verhalten angelegt als unterschiedliche starke Tendenz eher A als B zu tun. Andere Präferenzen werden innerhalb gesellschaftlicher Systeme durch Mehrheiten, privilegierten Gruppen oder irgendwelche andere Mechanismen ausgezeichnet als das, was in der jeweiligen gesellschaftlichen Gruppierung gelten soll (im Freundeskreis, in der Familie, in der Schule, am Arbeitsplatz, im Strafgesetz, in einer religiösen Vereinigung, …). Zwischen den gesellschaftlich induzierten Normen und den individuellen Verhaltenstendenzen gibt es unterschiedlich viele und unterschiedliche starke Konflikte. Ebenso wissen wir durch die Geschichte und die Gegenwart, dass es zwischen den verschiedenen gesellschaftlich induzierten Präferenzsystemen immer mehr oder weniger starke Konflikte gab, die alle Formen von möglichen Auseinandersetzungen befeuert haben: zwischen kriegerischer Totalausrottung und wirtschaftlich-kultureller Vereinnahmung findet sich alles.

Der Sinn von Präferenzen ist schlicht, dass sich Gruppen von Menschen einigen müssen, wie sie ihre Fähigkeiten am besten ordnen, um für alle einen möglichst großen Nutzen in der jeweiligen Lebenswelt zu sichern.

Der eine Bezugspunkt für diese Regeln ist die Lebenswelt selbst, die sogenannte Natur, die heute mehr und mehr von technologischen Entwicklungen zu einer Art Techno-Natur mutiert ist und — das wird gerne übersehen — zu der der Mensch gehört! Der Mensch ist nicht etwas Verschiedenes oder Getrenntes von der Natur, sondern der Mensch ist vollständig Teil der Natur. Im Menschen werden Eigenschaften der Natur sichtbar, die ein besonderes Licht auf das ‚Wesen‘ der Natur werfen können, wenn man es denn überhaupt wissen will. Der andere Bezugspunkt ist die Welt der Bilder in den Köpfen der Beteiligten. Denn was immer man in einer Lebenswelt tun will, es hängt entscheidend davon ab, was jeder der Beteiligte in seinem Kopf als Bild von der Welt, von sich selbst und von den anderen mit sich herum trägt.

An diesem Punkt vermischt sich die Präferenz-/Werte-Frage mit der Wissensfrage. Man kann beide nicht wirklich auseinander dividieren, und doch repräsentieren die Präferenzen und das Weltwissen zwei unterschiedliche Dimensionen in der Innendynamik eines jeden Menschen.

EIN EPOCHALER WENDEPUNKT?

Fasst man die bisherigen ‚Befunde‘ zusammen, dann zeichnet sich ein Bild ab, dem man eine gewisse Dramatik nicht absprechen kann:

  1. In der Kommunikationsdimension hat sich eine Asymmetrie aufgebaut, in der die Technologie die Menge und die Geschwindigkeit des Informationsmaterials in einer Weise intensiviert hat, die die biologischen Strukturen des Menschen vollständig überfordern.
  2. In der Präferenzdimension haben wir eine mehrfache Explosion im Bereich Komplexität der Lebenswelt, Komplexität der Präferenzsysteme, Komplexität der Weltbilder.
  3. Die Anforderungen an mögliche ‚praktische Lösungen‘ steigen ins ‚gefühlt Unermessliche‘, während die Kommunikationsprozesse, die verfügbaren Weltbilder und die verfügbaren Präferenzen sich immer mehr zu einem ‚gefühlten unendlichen Komplexitätsknäuel‘ verdichten
  4. Alle bekannten Wissenstechnologien aus der ‚Vergangenheit (Schulen, Bücher, Bibliotheken, empirische Wissenschaften, …) scheinen nicht mehr auszureichen. Die Defizite sind täglich immer mehr spürbar.

WAS BEDEUTET DIES FÜR EINE MÖGLICHE NEUE STRATEGIE?

Obwohl die soeben aufgelisteten Punkte nur als eine sehr grobe Charakterisierung der Problemlage aufgefasst werden können, bieten sie doch Anhaltspunkte, in welcher Richtung man suchen sollte.

Ich deute die Asymmetrie zwischen der technologisch ermöglichten Turbo-Daten-Welt und dem individuellen Gehirn mit seiner nenschentypischen Arbeitsweise als eine Aufforderung, dass man die Verstehensprozesse auf Seiten des Menschen deutlich verbessern muss. Wenn jemand über ein — bildhaft gesprochen — ‚Schwarz-Weiß‘ Bild der Welt verfügt, wo er doch ein ‚Vielfarbiges‘ Bild benötigen würde, um überhaupt wichtige Dinge erkennen zu können, dann muss man bei den Bildern selbst ansetzen. Wie kommen sie zustande? Was können wir dazu beitragen, dass jeder von uns die Bilder in den Kopf bekommt, die benötigt werden, wollen wir gemeinsame eine komplexe Aufgabe erfolgreich bewältigen? Einzelne Spezialisten reichen nicht. Ein solcher würde als Einzelgänger ‚veröden‘ oder — viel wahrscheinlicher — auf lange Sicht von der Mehrheit der anderen als ‚Verrückter‘ und ‚Unruhestifter‘ ‚ausgestoßen‘ werden.

Vom Ende her gedacht, von der praktisch erwarteten Lösung, muss es möglich sein, dass die jeweilige gesellschaftliche Gruppe in der Lage ist, gemeinsam ein Bild der Welt zu erarbeiten, das die Gruppe in die Lage versetzt, aktuelle Herausforderungen so zu lösen, dass diese Lösung noch in einem überschaubaren Zeitabschnitt (wie viele Jahre? Auch noch für die Enkel?) funktionieren. Dies schließt eine sachliche Funktion genauso ein wie die Übereinstimmung mit jenen Präferenzen, auf sich die Gruppierung zu Beginn geeinigt hat.

Die Ermöglichung hinreichend leistungsfähiger Bilder von der Welt in allen Beteiligten verlangt auf jeden Fall einen Kommunikationsprozess, bei dem alle Beteiligten aktiv mitwirken können. Nun kennen wir in demokratischen Gesellschaften heute die Forderung nach mehr Bürgerbeteiligungen aus vielen politischen Bekundungen und auch von zahllosen realen Initiativen. Die reale Auswirkung auf die Politik wie auch die Qualität dieser Beteiligungen ist bislang — in meiner Wahrnehmung — nicht sehr groß, meistens sehr schlecht, und auch eher folgenlos. Diese Situation kann auch die gefühlte Ohnmacht weiter verstärken.

EINE PARALLELWELT – Bislang ungenutzt

Bei der Frage, was kann man in dieser Situation tun, kann es hilfreich sein, den Blick vom ‚alltäglichen politischen Normalgeschehen‘ mal in jene Bereiche der Gesellschaft zu lenken, in denen es — unbeachtet von der öffentlichen Aufmerksamkeit und den Mainstream-Medien — weltweit eine Gruppe von Menschen gelingt, täglich die kompliziertesten Aufgaben erfolgreich zu lösen. Diese Menschen arbeiten in Gruppen von 10 bis 10.000 (oder gar mehr), sprechen viele verschiedene Sprachen, haben ganz unterschiedliches Wissen, arbeiten parallel in verschiedenen Ländern und gar auf verschiedenen Kontinenten in unterschiedlichen Zeitzonen, und errichten riesige Bauwerke, bauen riesige Flugzeuge, Raketen, ermöglichen die Arbeit von riesigen Fabriken, bauen eine Vielzahl von Autos, bauen tausende von Kraftwerken, immer komplexere Datennetzwerke mit Rechenzentren und Kontrollstrukturen, Roboter, und vieles, vieles mehr …

Was von außen vielleicht wie Magie wirken kann, wie ein Wunder aus einer anderen Welt, entpuppt sich bei näherem Zusehen als ein organisiertes Vorgehen nach transparenten Regeln, nach eingeübten und bewährten Methoden, in denen alle Beteiligten ihr Wissen nach vereinbarten Regeln gemeinsam ‚auf den Tisch‘ legen, es in einer gemeinsamen Sprache tun, die alle verstehen; wo alles ausführlich dokumentiert ist; wo man die Sachverhalte als transparente Modelle aufbaut, die alle sehen können, die alle ausprobieren können, und wo diese Modelle — schon seit vielen Jahren — immer auch Simulierbar sind, testbar und auch ausführlich getestet werden. Das, was am Ende eines solche Prozesses der Öffentlichkeit übergeben wird, funktioniert dann genauso, wie geplant (wenn nicht Manager und Politiker aus sachfremden Motiven heraus, Druck ausüben, wichtige Regel zu verletzten, damit es schneller fertig wird und/ oder billiger wird. Unfälle mit Todesfolgen sind dann nicht auszuschließen).

Normalerweise existiert die Welt des Engineerings und die soziale und politische Alltagswelt eher getrennt nebeneinander her, wenn man sie aber miteinander verknüpft, kann sich Erstaunliches ereignen.

KOMMUNALPLANUNG UND eGAMING

Bei einem Kongress im April 2018 kam es zu einer denkwürdigen Begegnung zwischen Städteplanern und einem Informatiker der UAS Frankfurt. Aus dem Kongress ergab sich eine erste Einsicht in das Planungsproblem von Kommunen, das schon bei ‚kleinen‘ Kommunen mit ca. 15.000 Einwohner eigentlich alle bekannten Planungsmethoden überfordert. Von größeren Gebilden, geschweige denn ‚Mega-Cities‘, gar nicht zu reden.

Mehrere Gespräche, Workshops und Vorträge mit Bürgern aus verschiedenen Kommunen und Planungseinheiten von zwei größeren Städten ermöglichten dann die Formulierung eines umfassenden Projektes, das von Mai – August 2019 einen realen Testlauf dieser Ideen ermöglicht.

Aus nachfolgenden Diskussionen entstand eine erste Vision unter dem Titel Kommunalplanung und eGaming , in der versuchsweise die Methoden der Ingenieure auf das Feld der Kommunalplanung und der Beteiligung der Bürger angedacht wurde. Es entstand eine zwar noch sehr grobe, aber doch vielseitig elektrisierende Vision eines neuen Formates, wie die Weisheit der Ingenieure für die Interessen der Bürger einer Kommune nutzbar gemacht werden könnte.

REALWELT EXPERIMENT SOMMER 2019

Im Rahmen einer alle Fachbereiche übergreifenden Lehrveranstaltung haben Teams von Studierenden die Möglichkeit (i) die ingenieurmäßigen Methoden kennen zu lernen, mit denen man Fragestellungen in einer Kommune ausgehend von den Bürgern (!) analysieren kann; (ii) mit diesen Fragestellungen können dann — immer auch in Absprache mit den Bürgern — Analysemodelle erarbeitet werden, die dann — unter Klärung möglicher Veränderbarkeit — zu (interaktiven) Simulationsmodellen erweitert werden. Diese lassen sich dann (iii) mit allen Beteiligten durchspielen. Dadurch eröffnen sich Möglichkeiten des direkten ‚Erfahrungsaustausches zwischen Studierenden und Bürgern und ein gemeinsames Lernen, was die Wirklichkeit einer Stadt ist und welche Potentiale eine solche Kommune hat. Insbesondere eröffnet solch ein Vorgehen auch Einsichten in vielfältige Wechselwirkungen zwischen allen Faktoren, die ohne diese Methoden völlig unsichtbar blieben. In nachfolgenden Semestern soll noch die wichtige Orakelfunktion hinzugefügt werden.

Parallel zum Vorlesungsgeschehen bereitet ein eigenes Software-Team eine erste Demonstrationssoftware vor, mit der man erste Analysemodelle und Simulationsmodelle erstellen kann, um — auch interaktive — Simulationen vornehmen zu können. Wenn alles klappt, würde diese Juni/ Juli zur Verfügung stehen.

AUSBLICK

Vereinfachend — und vielleicht auch ein wenig überspitzt polemisch — ausgedrückt, kann man sagen, dass in diesem Projekt (vorläufige Abkürzung: KOMeGA) das Verhältnis zwischen Menschen und digitaler Technologie umgekehrt wird: während bislang die Menschen mehr und mehr nur dazu missbraucht werden, anonyme Algorithmen zu füttern, die globalen Interessen dienen, die nicht die des einzelnen Bürgers sind, wird hier die Technik den Interessen der Bürger vollständig untergeordnet. Die Technologie hat einzig die Aufgabe, den Bürgern zu helfen ihr gemeinsames Wissen über die Kommune :

  • zu klären
  • sichtbar zu machen
  • auszuarbeiten
  • durch zuspielen
  • zu verbessern
  • nach Regeln, die die Bürger selbst formulieren
  • für alle transparent
  • jederzeit änderbar
  • rund um die Uhr über das Smartphone abrufbar
The power of the future is your freedom … breaking the chains of the colonization of your mind …

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

WAS {IST/ KANN/ SOLL} KI (KÜNSTLICHE INTELLIGENZ)? Partieller Nachhall zu einem Gespräch am 15.März 2019

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 16.März 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Am 15.März 2019 war ich zu einem Vortrag mit anschließender Diskussion beim Regionaltreffen des ‚VDI Verein Deutscher Ingenieure Bezirksverein Frankfurt-Darmstadt e.V.‚ eingeladen. Das offizielle Thema war ‚Brauchen wir eine soziale KI?‘ Am Beispiel des Projektes ‚Kommunalpolitik und eGaming‚ entwickelte ich die mögliche und heute dringend gebotene Erweiterung der Blickrichtung der Informatik und Ingenieurwissenschaften über das rein Ingenieurmäßige hinaus auf die möglichen Wechselwirkungen der Methoden der Ingenieurwissenschaften mit der realen Gesellschaft vor Ort. Während des lebhaften folgenden Gesprächs tauchte auch immer wieder das Thema ‚Künstliche Intelligenz (KI)‘ für sich auf, unabhängig von diesem Kontext. Einzelne Diskussionsteilnehmer beschäftigte dieses Thema sehr, artikuliert in Fragen wie „Was ist überhaupt KI?“ oder “ Kann die KI uns Menschen überwinden (Stichwort ‚Superintelligenz‘ usw.)“. Klickt man in diesem Blog die Stichworte ‚KI‘ oder ‚KI – Künstliche Intelligenz‘ an, dann findet man mindestens 17 Blogeinträge zu diesem Thema, ein Anzeichen, dass das Thema in diesem Blog nicht neu ist. An diesem Abend aber kannte niemand diese Blogeinträge und die Fragen standen im Raum. Ich habe dann versucht, aus dem Stand, ad hoc, auf diese Fragen kurz — und damit notgedrungen informell — zu antworten. Da ich auch aus vielen anderen Gesprächen weiß, dass diese Fragen viele Menschen beschäftigen, hier also eine Liste von kurzen Thesen zu wichtigen Fragen in diesem Umfeld (eigentlich wollte ich dazu schon immer ein kleines Büchlein veröffentlichen, aber die spannenden Themen und Aufgaben des Alltags halten mich bislang davon ab….).

DEFINITION VON KI

Bis heute gibt es keine allgemein akzeptierte, gültige und brauchbare Definition von ‚Künstlicher Intelligenz‘. Die Meinung in der Öffentlichkeit wird beherrscht von den Marketingabteilungen der großen Firmen, deren Formulierungen selbst von sogenannten kritischen Medien vielfach einfach 1-zu-1 übernommen werden.

INTELLIGENZ

Die Formulierung ‚KI = Künstliche Intelligenz‘ enthält den Begriff ‚Intelligenz‚. Unabhängig von der Technik wurde dieser Begriff ‚vor-wissenschaftlich‘ nur im Kontext von biologischen Systemen benutzt. Ursprünglich primär für Menschen (Lebensform homo sapiens), in der Neuzeit im Bereich Biologie und Psychologie auch für nicht-menschliche biologische Systeme (alltagssprachlich: Tiere).

Seit dem Beginn des 20.Jahrhunderts hat die experimentelle Psychologie Verfahren entwickelt, wie man ‚Intelligenz‘ messen kann, ohne dass man weiß, was ‚Intelligenz als solche‘ ist. Vereinfacht formuliert: wenn man davon ausgeht, dass das vor-wissenschaftliche Phänomen der ‚Intelligenz‘ Menschen zukommt, dann kann man z.B. schauen, über welche beobachtbaren und messbaren Verhaltenseigenschaften verfügen z.B. alle 10-jährigen Kinder in einer bestimmten Zeitspanne (z.B. 2019) ‚im Normalfall‘. Dann kann man einen Katalog dieser Verhaltenseigenschaften aufstellen (Problem der Auswahl) und anschließend kann man experimentell feststellen, ob ein Kind diese Eigenschaften vollständig und ohne Fehler in einer bestimmten Zeit ‚reproduzieren‘ kann oder eben nicht (schneller oder länger, ohne oder mit ‚Fehlern‘ (= Abweichungen von der Vorgabe)). Dieses Verfahren hat viele Ungenauigkeiten, umschließt viele Fehler, hat sich aber dennoch in der Praxis in vielfachem Sinne als ‚Ordnungs-‚ und ‚Prognosekriterium‘ bewährt (heute meist in Verbindung mit dem Begriff des ‚Intelligenzquotienten (IQ)‘ bekannt).

Dieser psychologische Intelligenzbegriff sagt direkt nichts aus über die physiologischen Strukturen (Körper, Gehirn), die dem beobachtbaren Verhalten zugrunde liegen. Auch ist dieses Intelligenzkonzept viel zu grob, um wichtige Details, Dynamiken und Interaktionen innerhalb der unterstellten menschlichen Intelligenz zu erfassen. Immerhin gab es viele beeindruckende theoretische Ansätze, über statistische Auswertungen Hinweise auf ‚verborgene, innere‘ Strukturen der unterstellten Intelligenz zu finden.

Etwas Hilfe kam durch die moderne Gehirnforschung insoweit man mehr Wissen erlangte über Grundstrukturen und Grundfunktionsweisen des Gehirns (speziell auch seiner evolutionären wie auch ontogenetischen Entwicklung), aber die Messbarkeit von physiologischen Gehirnparametern lässt weder direkte Schlüsse zu bewussten Phänomenen zu noch kann man über diese irgendwelche Schlüsse auf die unterstellte ‚Intelligenz‘ ziehen. Was sich allerdings andeutet, ist, dass das Gehirn und die sich in der Gehirntätigkeit zeigenden Dynamiken, von einer Komplexität sind, die vorschnelle, vereinfachende Modelle eher verbieten. Die für ein Gesamtverständnis notwendige Kooperation zwischen Biologie, Psychologie, Phänomenologie und Gehirnforschung steckt noch in den Kinderschuhen. Es gibt nicht einmal einen allgemein akzeptierten theoretischen Rahmen, innerhalb dessen solch eine Kooperation stattfinden könnte. Ein direkter Vergleich der verhaltensbasierten ‚Intelligenz‘ zwischen verschiedenen biologischen Systemen (z.B. Bienen und Ratten, oder Nilpferd und Wal, oder Hund und Affe usw.) ist bislang schwierig, aber im Prinzip anhand von Verhaltenseigenschaften möglich. Nach diesem Muster kann man auch Menschen mit Maschinen vergleichen. Der berühmte ‚Turing-Test‚ ließe sich in dieses Schema einordnen. Wie aber schon die umfangreiche Diskussion zum Turing-Test zeigt, ist ein solcher Vergleich sehr grob. Kann es schon beim Vergleich einzelner Menschen riesige Unterschiede geben bis dahin, dass man — wie zu früheren Zeiten geschehen — bestimmten Menschen abgesprochen hat, dass sie Menschen seien, weil sie in ihrem Verhalten ‚von der bekannten Norm‘ abweichen (‚Hexen‘, ‚Verrückte‘, ‚die anderen‘, …), so kann es auch beim Vergleich des Verhaltens zwischen Menschen und Maschinen erhebliche Differenzen geben. Im Extremfall würde möglicherweise ein Computer als ‚menschlicher‘ eingestuft werden als ein realer Mensch. Reale Menschen verfügen über eine ungeheure Bandbreite an möglichem Verhalten bis dahin, dass Menschen von anderen Menschen sagen, das seien ‚Unmenschen‘, ‚Tiere‘ und dergleichen mehr.

Wenn dann der Begriff ‚Künstliche Intelligenz‘ geprägt und in Umlauf gesetzt wird, dann ‚erbt‘ dieser neue Begriff die Vagheiten und Begrenztheiten des alten Begriffs ‚Intelligenz‘. Ist beim bisherigen Begriff ‚Intelligenz nicht klar, welche Erzeugungsstrukturen ‚dahinter‘ stecken, so macht der Begriff ‚Künstliche Intelligenz‘ klar, dass es um ‚nicht-biologische Systeme‘ gehen soll, also um technische Systeme, die ein Verhalten zeigen, das man dann irgendwie ‚intelligent‘ nennt. Solange die Informatik und die Ingenieurwissenschaften sich weigern, ihren Begriff der ‚KI‘ explizit mit dem psychologischen, am Verhalten orientierten, Intelligenzbegriff zusammen zu bringen, hängt der technische Intelligenzbegriff buchstäblich in der Luft. In welchem Sinne ein als ‚intelligent‘ bezeichnetes technisches System irgend etwas mit der Intelligenz eines biologischen Systems zu tun haben kann/ soll ist völlig unbestimmt. Wissenschaftsphilosophisch könnte man beide Begriffe einfach in einen gemeinsamen Theorierahmen einordnen, aber sowohl die Psychologie wie auch die Ingenieurwissenschaften verzichten bislang darauf, ihr eigenes Tun von einem Metastandpunkt aus zu reflektieren. Ist ja auch einfacher …


LERNEN (UND INTELLIGENZ)

Der Begriff des ‚Lernens‚ ist grundsätzlich unabhängig vom Begriff der Intelligenz (wenn man den verhaltensbasierten psychologischen Begriff benutzt). Bei biologischen Systemen kann man rein praktisch ‚Intelligenz‘ und ‚Lernen‘ nicht voneinander isolieren, da biologische Systeme von Grund auf ‚lernende Systeme‘ sind, d.h. kontinuierlich lernen. Die ‚messbare Intelligenz‘ eines biologischen Systems zu einem bestimmten Zeitpunkt wird daher — meistens — nie ganz getrennt gesehen von der grundsätzlichen Lernfähigkeit.

Wenn ich aber eine Maschine programmiere, dann kann ich ich diese Maschine mit einem Programm ausstatten, das viele der messbaren Verhaltenseigenschaften eines Menschen reproduzieren kann — oder sogar mehr –, ohne (!) dass sie lernt. Es handelt sich dann um eine ‚Übertragung‘ von verfügbarem Wissen (die ersten großen regelbasierten technischen KI-Systeme waren so).

Da jedes biologische System mit dem Zustand einer einzigen Zelle beginnt, die sich im Wachstumsprozess zu einem Verbund von vielen Billionen (10^12) Zellen erweitert, und das System neben ‚angeborenen Wissensstrukturen‘ die aktuelle Umgebung jeweils neu ‚lernen‘ muss, gibt es bei biologischen Systemen (insbesondere dem homo sapiens, also uns) jeweils nur eine ‚temporäre Intelligenz‘, d.h. eine Gesamtheit von Verhalten, die sich im Laufe der körperlichen und ‚kognitiven‘ Entwicklung beständig verändert. So gesehen ist die beobachtbare, messbare Intelligenz eine Funktion der dynamischen physiologischen Basis die sich in kontinuierlicher Interaktion mit der Umgebung ‚entwickelt‘ und darin ‚lernt‘.

Der verhaltensbasierte Begriff des ‚Lernens‚ nimmt die Veränderung des Verhaltens in der Zeit zum Ausgangspunkt, um zu postulieren, dass ein lernendes System ein solches ist, das seine ‚internen Zustände (IS)‘ so ‚abändern‘ kann dass es auf einen Umgebungsreiz S nicht nur mit einer Reaktion R reagieren kann, sondern ab einen bestimmten Zeitpunkt auch mit einer ‚anderen/ neuen‘ Reaktion R‘, die für eine ‚längere Zeit‘ ’stabil bleibt (Beispiel: jemand, der sich am offenen Feuer mal verbrannt hat, wird künftig einen direkten Kontakt vermeiden — wenn er ‚lernen‘ kann).

So einfach und abstrakt diese Definition eines lernenden Systems erscheinen mag, sie deckt alles ab, was wir heute kennen. Setzt man für ‚interne Zustände (IS)‘ das ‚Gehirn‘ mit dem umgebenden ‚Körper‘, dann kann z.B. ein ‚Durstreiz‘ dazu führen, dass das System ‚ irgendwann durch Probieren herausfindet, was es ‚trinken‘ kann, und dass dadurch dieser Durstreiz verschwindet (wobei bei solchen elementaren Bedürfnissen ‚angeborene‘ Verhaltenstendenzen ein ‚Lernen‘ stark unterstützen). Wenn diese Erfahrungen ‚gespeichert‘ werden können (Veränderung interner Zustände), dann kann das System beim nächsten ‚Auftreten des Durstreizes‘ sich an diese Erfahrungen ‚erinnern‘ und statt ‚planlos herum zu suchen‘ sehr ‚gezielt‘ mit einem geeigneten Verhalten reagieren. Diese Verhaltensänderungen können Verhaltensforscher beobachten und daraus die Arbeitshypothese ableiten, dass das System grundsätzlich ‚lernfähig ist

PRÄFERENZEN – ZIELE

Was in der heutigen Diskussion um Intelligenz und künstliche Intelligenz weitgehend ‚unter den Tisch fällt‘, das ist der Aspekt der Präferenzen (eng verwandt mit Begriffen wie ‚Werte‘ und ‚Ziele‘).

Dies hängt — wie oben geschildert — zu einem Teil an der Tatsache, dass der Begriff der ‚Intelligenz‘ isoliert vom Begriff des Lernens betrachtet wird.

Akzeptiert man, dass messbare ‚Intelligenz‘ bei biologischen Systemen das Ergebnis von zugrunde liegenden Lernprozessen ist und unterstellt man ferner, dass technische Systeme, die man als ‚lernfähig‘, als ‚lernend‚ bezeichnet, auch in diesem Sinne aus einer Menge möglicher Reiz-Reaktions-Muster jene ‚herausfinden‘ müssen, die ‚besser‘ sind als ‚andere‘, dann hat man automatisch diesen Begriff des ‚besser‚ im Konzept. ‚Besser‘ heißt salopp, dass man ein A einem anderen B ‚vorzieht‚, A vor B ‚präferiert‚. Das genau ist mit ‚Präferenz‘ hier gemeint. Wenn ein sogenanntes lernendes System nicht über ‚hinreichend viele‘ Präferenzen verfügt, dann kann es keine Teilmengen von Reiz-Reaktions-Mustern selektieren, d.h. dann ist ein System nicht in der Lage, zu lernen.

Während biologische Systeme quasi ‚von Anbeginn an‘ die ‚eingeborene Tendenz‚ (nicht ‚angeboren‘!) zeigen, die Ausbildung von komplexen Strukturen für die ‚Nutzung von freier Energie‘ zu erhalten und sogar beständig weiter zu entwickeln (mit einer mittlerweile ungeheuren Vielfalt von sich daraus ergebenden ’nachgeordneten Präferenzen‘), so ist bei technischen Systemen keine vergleichbare ‚eingeborene Tendenz‘ verfügbar. Um technischen Systemen das ‚Lernen‘ quasi ‚einzuhauchen‘ bedarf es der Ingenieure, die den technischen Systemen nach Bedarf unterschiedliche Präferenzen (= Ziele, Werte) ‚einprogrammieren‘ (entweder direkt oder über gezielte Interaktionen (= Training)).

Während diese Methode der expliziten Programmierung von Präferenzen z.B. im Bereich der Industrierobotik weitgehend funktioniert, zeigt sich in jenen Forschungsbereichen, in denen es nicht um klar vorgegebene Ziele geht, sondern um eine ‚offene Lernfähigkeit‘ für nahezu ‚beliebige Teilmengen‘ von Reiz-Reaktions-Mustern, dass nicht klar ist, welche Präferenzen man denn vorgeben soll.

Im Fall des homo sapiens (und auch vielen anderen biologischen Systemen) wissen wir, dass Präferenzen nicht isoliert entstehen, sondern als Interaktionsmuster in sozialen Systemen (Regeln, Gebote, Gesetze, Gewohnheiten, Überlieferung, …). Im historischen Vergleich kann man feststellen, dass sich diese kulturellen Präferenzsysteme häufig geändert haben. Zugleich wissen wir, dass unterschiedliche Präferenzsysteme gleichzeitig in unterschiedlichen Populationen bestehen können wie auch sogar in der gleichen Populationen, sofern die einzelnen Mitglieder in individuell verschiedenen Teilnetzwerken leben (Familie, Beruf, Freunde, Verein, …), in denen jeweils andere Präferenzen gelten.

Zusätzlich kann man beobachten, dass geltende Präferenzsysteme ungern in Frage gestellt werden. Menschen, soziale Gruppen, Institutionen zeigen eine starke Tendenz, einmal eingeführte Präferenzen gegen alles ‚Neue‘, gegen alle möglichen ‚Veränderungen‘ zu verteidigen. Während Präferenzen einerseits eine Voraussetzung dafür sind, dass überhaupt gelernt werden kann und dadurch eine bestimmte ‚lernabhängige Intelligenz‘ entstehen kann, kann die Fixierung von Präferenzen ein Lernen auch zum Erliegen bringen. Es reicht also u.U. nicht, einige wenige Präferenzen zu haben, sondern möglicherweise eine ‚offene Menge von Präferenzen‘.

Damit stellt sich die grundlegende Frage nach den ‚richtigen Präferenzen‘: welche Präferenzen brauchen wir? Wann, wo, wie, wie lange … ?

Obwohl die Frage der Präferenzen so fundamental erscheint für das Lernen, für die lernabhängigen Intelligenzen, für mögliche Zukünfte, besteht der starke Eindruck, dass über diese grundlegenden Fragen heute kaum bis gar nicht diskutiert wird. Dies erscheint fatal.

Klar sollte in diesem Zusammenhang sein, dass jedwede Art von ‚künstlicher Intelligenz‘ Lernprozesse voraussetzt, die eben solche Präferenzen benötigen, ohne dass klar ist, wo diese Präferenzen herkommen sollen. Bei biologischen Systemen ist sie ‚eingeboren‘, bei technischen Systeme muss sie ‚irgendwo herkommen‘.


PRINZIP COMPUTER

Im Rahmen der Diskussion um ‚künstliche Intelligenz‘ spielt auch der Begriff des Computers eine zentrale Rolle, und es ist erstaunlich wie unklar auch dieser zentrale Begriff ist.

Im Normalfall denken Menschen beim Begriff ‚Computer‚ an konkrete Maschinen (Smartphones, Laptops, PCs, Roboter, Server, …).

Was den wenigsten bewusst ist, ist die Tatsache dass der grundlegende Begriff des Computers ein rein theoretisches Konzept ist, der ‚Automat‘, historisch ‚die Turingmaschine‘. Die ‚Turingmaschine‘ ist ein rein mathematisches Konzept, das Alan Matthew Turing 1936/7 eingeführt hatte, um im Grundlagenstreit der Mathematik zu Beginn des 20.Jahrhunderts zu zeigen, dass der Metamathematische Beweis von Kurt Gödel 1931 zur Unentscheidbarkeit von mathematischen Theorien auch anders als mit der Arithmetisierung der Arithmetik mittels Goedelzahlen geführt werden kann (Goedel selbst war mit seinem eigenen Beweis nicht zufrieden gewesen und zu Turings Beweis hat er in einer Vorlesung in Princeton angemerkt, dass dies jetzt eine Form des Beweises sei, mit der er auch zufrieden sei).

Wohlgemerkt, es ging hier um die letztlich philosophische (!!!) Frage, welche ‚Beweismittel‘ denn erlaubt sein dürfen, damit ein logischer Beweis zu Eigenschaften mathematischer Theorien als ‚echter Beweis‘ anerkannt werden kann, und ob solch ein echter Beweis von einer ‚Maschine‘ automatisch ausgeführt werden könne (Frage von David Hilbert).

Goedel, Turing — und auch viele andere — haben gezeigt, dass sich für mathematische Theorien ab der Arithmetik aufwärts nicht mit endlichen Mitteln beweisen lässt, dass sie sowohl vollständig wie konsistent sind.

Auf diese Weise war — und ist — das mathematische Konzept der Turingmaschine als ein ‚theoretischer Standard‘ definiert worden, mit Bezug auf den bis heute entschieden wird, ob irgendein Prozess als ‚mit endlichen Mitteln entscheidbar‘ gelten kann oder nicht.

Was viele Menschen im Alltag übersehen ist, dass jeder physikalisch reale Computer ’schwächer‘ ist als das theoretische Konzept der Turingmaschine, da diese ein ‚unendliches‘ Schreib-Lese-Band besitzt, was sowohl für den möglichen Input und Output steht wie auch für einen möglichen Speicher. Während reale Computer angenähert auch über einen quasi-unendlichen Input und Output verfügen können, sind alle Speicher in realen Computern notgedrungen endlich.

So mancher sieht heute im sogenannten ‚Quantencomputer‘ eine Überwindung des ‚begrenzten Konzepts‘ der Turingmaschine. Diese Diskussion hat aber zwei Schwachstellen. (i) Theoretisch wird übersehen, dass das theoretische Konzept der Turingmaschine als Standard eingeführt wurde, um ‚endlich berechenbare Prozesse‘ zu definieren und es wenig Sinn macht, theoretisch als unendlich postulierte Prozesse — wie im Fall des Quantencomputers — dagegen auszuspielen; ferner ist es mehr als unklar, was der Begriff der ‚Berechenbarkeit‘ im Kontext von Quantencomputern bedeuten soll, da der Begriff der ‚Berechenbarkeit‘ bislang ja gerade nur als ‚endlicher Prozess‘ definiert wurde. (ii) Die reale Machbarkeit von Quantencomputern ist auch im Jahr 2019 alles andere als klar.


MENSCH-COMPUTER SYMBIOSE

Zwischen den Propheten der KI als Lösung für alle Probleme und den Untergangsbeschwörern, dass die KI die Menschen letztlich vernichten wird, gibt es viel Raum für eine interessante Realität und mögliche Zukunft.

Klar ist — bei angemessener Betrachtung der Entwicklung des Universums und speziell der biologischen Evolution –, dass mit dem homo sapiens eine Komplexitätsexplosion unfassbaren Ausmaßes begonnen hat. Ein Teilaspekt dieser Explosion ist die Transformation des Prinzips Turingmaschine — die in jeder biologischen Zelle bei der Reproduktion gegeben ist! — über die Formalisierung in reale programmierbare Maschinen.

Schon heute können Großteile der menschlichen Zivilisation ohne diese programmierbaren Maschinen nicht mehr funktionieren. Sie ergänzen auf vielfache Weise den Menschen mit seinen endlichen kognitiven Kapazitäten.

So wie schon das Prinzip Turingmaschine jeder biologischen Zelle erlaubt, sich zu reproduzieren, so erlauben die modernen Computernetzwerke den Menschen, die Komplexität der modernen Lebenswelt täglich neu zu reproduzieren und beständig zu erweitern (u.a. auch in der Genforschung und der Gentechnik, wodurch es im Prinzip möglich ist, die evolutionäre Weiterentwicklung des homo sapiens zu beschleunigen). Computer sind von daher kein Gegensatz der Evolution sondern genuiner Teil von ihr und schon heute für die weitere Entwicklung unabdingbar.

Bedenkt man das zuvor gesagte zur Präferenz-Problematik, dann wird die Technologie des Computers — und auch nicht der sogenannten KI — diese in irgendeiner Weise aus sich heraus lösen können. Und, obwohl Computer für das tägliche Überleben der Menschen als zentral wichtig erscheinen, kann die Computertechnologie dem Menschen das Präferenzproblem nicht abnehmen. Noch mehr Geschwindigkeit, noch mehr Datenmengen in noch kürzerer Zeit, liefern keine einzige Präferenz. Dass Spielprogramme (Schach, Go, …) ‚von alleine‘ sehr schnell Schach und Go so gut lernen können, dass sie danach alle menschlichen Spieler schlagen können, zeigt vor allem, dass Computer, angesetzt auf definierte Problem, dem Menschen real helfen können. Dies funktioniert aber immer nur dann, wenn die Kriterien für ‚Erfolg‘ vorgegeben werden (= Präferenzen). Ohne diese Gewinn-Kriterien könnte kein Computer auch nur das einfachste Spiel lernen.


ETHIK IST NICHT ETHIK

Im Zusammenhang mit der modernen Technik wird auch gerne und viel über sogenannte ‚Ethik‘ geredet. Abgesehen davon, dass es keine allgemein brauchbare Definition von Ethik gibt (wir haben es mit vielen ’selbsternannten‘ Ethikern zu tun), könnten man sich minimal vielleicht darauf einigen, dass Ethik sich mit eben den Präferenzen beschäftigt, anhand deren Menschen, Gruppen von Menschen, Institutionen usw. ihr Lernen ausrichten. Nun haben wir aber offensichtlich eine ‚offene, plurale Präferenzsituation‘, in der wir viele Präferenzsysteme gleichzeitig, nebeneinander vorfinden, deren Begründungen oftmals weitgehend unklar sind. Aufgrund dieser Unklarheit tun wir Menschen uns heute auch schwer, noch mehr gemeinsame Präferenzen zu finden, die uns ein ‚Erlernen der möglichen Zukunft‘ ermöglichen. In China legen einige wenige Menschen fest, was die Partei als Präferenzen erlaubt, und alle anderen müssen folgen. Dieses Modell erscheint im Lichte der Evolution als extrem fragwürdig und widerspricht auch sonst vielen elementaren Erkenntnissen.

Eine Ethik, die bestimmen soll, was das ‚Sollen‘ für alle sein soll, ist in sich im vollen Widerspruch zu den Prinzipien des biologischen Lebens und zudem philosophisch unhaltbar. Leben definiert sich u.a. eher als ‚das Andere zu dem, was gerade ist‘, ein anderer Name für ‚Zukunft‘; um die geht es, nicht um Vergangenheit; die ist vorbei.

DIE ZUKUNFT IST OFFEN

Wenn es irgendetwas gibt, was wir von der Evolution lernen können, dann, dass die Zukunft grundsätzlich offen ist; die Zukunft aus der Vergangenheit nur begrenzt hergeleitet werden kann; dass alles Wissen lernabhängig ist; dass Lernen ein Prozess ist, der nur über Versuch und Irrtum funktionieren kann; dass Experimentieren ohne Bereitschaft zu Fehlern und Verlust nicht geht; dass …

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Soundtrack (without voice)


Soundtrack with voice (… zum Thema: Leben ist das Andere zum Jetzt …)