KANN MAN DEN POPULISMUS ÜBERWINDEN? Eine Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 11.Februar 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Der vorausgehende Eintrag zum Phänomen des Populismus als einer angeborenen Verhaltenstendenz bei jedem Menschen rief bei einigen Lesern eine zwiespältige Reaktion hervor: einerseits würden die Überlegungen einleuchten, andererseits führte dies zu einer gewissen Hilfslosigkeit und Ratlosigkeit; wie kann man sich dagegen wehren? Denn, wenn Populismus gleichsam in den Genen ‚verdrahtet‘ ist, und damit alle betroffen sind, dann müssten sich ja ‚alle gleichzeitig‘ so verhalten, dass Populismus zumindest abgeschwächt wird (also unter 100% bleibt); eine vollständige Heilung (also 0%) scheint dagegen im Ansatz unmöglich. Diese Problemstellung aktivierte folgende Überlegungen.

FREIHEITSFELD

Das folgende Schaubild deutet einige der vielen Faktoren (Parameter) an, die alle zusammen spielen müssen, soll Freiheit gelingen. Daraus folgt, dass eine ‚freie Gesellschaft‘ eine extrem anspruchsvolle Teamleistung erfordert, die nur gelingen kann, wenn ALLE an einem Strang ziehen. Und ‚Alle‘ heißt hier wirklich ‚Alle‘.

Schaubild zum Umfeld der Freiheit; ein Netzwerk von Faktoren, die alle ineinander spielen

DIE GEBURT DER WELT IM KOPF

Ein zentraler Aspekt der These dass der Populismus angeboren sei besteht darin, dass aufgrund der grundlegenden Freiheit eines biologischen Systems und seiner grundlegenden Lernfähigkeit bei Kindern und jungen Menschen (sofern die äußeren Verhältnisse es zulassen!) zwar tatsächlich ‚automatisch‘ vielfältige intensive Lernprozesse stattfinden, mit zunehmendem Wissen, zunehmender Erfahrung, und zunehmenden Fähigkeiten im Alltag dann aber der Eindruck entsteht, dass man ja jetzt ‚alles kennt‘, ‚man Bescheid weiß‘, dass es ’nichts Neues mehr gibt‘. Wenn dieser Zustand eintritt (fließend, schleichend, nicht abrupt), dann beginnt die Welt im Kopf still zu stehen, sie hat eine ‚gewisse feste Form‘ gefunden, die Dinge sind immer mehr ‚wie sie sind (im Kopf)‘. Abweichungen, Änderungen, ‚Neues‘, Anderes werden jetzt nicht mehr als Anregung zum weiteren Lernen empfunden sondern zunehmend als ‚Störungen des Bestehenden‘. Und da diese Prozesse bei jedem ablaufen, bilden sich automatisch Gruppen ‚Gleichgesinnter‘, die in der Statik ihrer Bilder gleich sind, sich aber durch — meist zufallsbedingte Unterschiede in der Biographie — unterscheiden können (Anhänger verschiedener Fußballklubs, Fans verschiedener Popstars, Mitglieder von politischen Richtungen, von verschiedenen Religionen, …),

DIE UMGEBUNG ALS NÄHRBODEN

Der Einfluss der Umgebung auf die Ausbildung der individuellen Weltbilder ist erheblich, nahezu übermächtig. Denn — wie schon im vorausgehenden Beitrag festgestellt — wenn die grundlegende Freiheit und Lernfähigkeit eines biologischen Systems in seiner Umgebung nicht die materiellen Bedingungen findet, die es zum alltäglichen Leben, zu alltäglichen Lernen braucht, dann läuft die Freiheit ins Leere. Sie kann sich nicht ‚auswirken‘, sie kann kein Individuum befördern, dass hinreichend kompetent und lebensfähig ist.

Neben den eher ‚materiellen Bedingungen‘ der Freiheitsausübung gibt es aber noch die vielfältigen gesellschaftlichen Regeln, die das tägliche Verhalten betreffen. Wenn z.B. die Beteiligung am materiellen Warenaustausch nur über Geld läuft, der Erwerb von Geld für die Mehrheit an Arbeit gekoppelt ist, eine Gesellschaft aber nicht für alle genügend Arbeit bereit stellen kann, dann verhindern diese Konventionen, das ALLE hinreichend am materiellen Warenaustausch beteiligt sind. Wenn z.B. die ‚Rechte‘ am Boden und am Wasser von ‚Stammeshäuptern‘ vergeben werden, diese sich aber auf Kosten der eigenen Stammesmitglieder bereichern, indem sie diese Rechte an lokalfremde Kapitalgeber ‚verkaufen‘, so dass die Bewohner eines Gebietes ihrem eigenen Boden und Wasser ‚enteignet‘ werden, dann kann Freiheit nicht funktionieren. Wenn z.B. viele Millionen Kinder keine Ausbildung bekommen, sondern stattdessen unentgeltlich für ihre Eltern oder für Fremde arbeiten müssen, dann wird ihnen die Grundlage für ein freies Leben genommen. usw.

Es gibt auch Varianten des Freiheitsentzugs über Verfremdung der Kognition: wenn z.B. Videoserien im Internet, (online) Computer-Spiele im Internet, oder Fernsehserien — alle jeweils mit vielen Millionen Nutzern — sich viele Stunden am Tag in Erregungszustände versetzen, die keine für den Alltag nutzbaren Inhalte vermitteln, sondern mit Phantasiebildern das Gehirn blockieren, dann ist das eine kognitive Selbstverstümmlung, die als ‚Gehirnwäsche‘ in anderen Zusammenhängen verboten ist.

KULTURELLE GESAMTLEISTUNG

Aus der Geschichte wissen wir, wie mühsam es für die Population der Menschheit war, dem Leben Wissen, Erfahrungen, Werte stückweise abzuringen, um vom Status der Jäger und Sammler zu immer komplexeren Gesellschaften mit immer mehr Handwerk, Technik, sozialen Institutionen, Rechtssystemen, Handels- und Wirtschaftssystemen, Dörfer, Städten, Regionen, lokal, national und international zu werden, mit Kommunikationssystemen, Wissensspeicherungstechniken, Bildungsstrategien usw., dann dürfte klar sein, DASS die Großgesellschaft, ihre politische, soziale, juristische usw. Verfasstheit, weder von eine einzelnen alleine noch innerhalb einer kurzen Zeit ‚aufgebaut‘ werden konnte und auch heute nicht so einfach aufgebaut werden kann. Funktionierende komplexe Gesellschaften erfordern den Einsatz von jedem einzelnen und das in einer aufeinander abgestimmten Weise. So etwas aufzubauen und dann ‚am Leben zu erhalten‘ ist schwer; es zu zerstören vergleichsweise einfach.

Wir erleben heute eine Phase der Menschheit, in der — verglichen mit der Vergangenheit — sehr komplexe Strukturen erreicht worden sind, deren ‚Erhaltung‘ schon schwierig erscheint, erst recht ihre konstruktive und nachhaltige ‚Weiterentwicklung‘.

PRÄFERENZEN (WERTE)

Was im ‚Getöse des Alltags‘ leicht und gerne untergeht, das ist die Tatsache, dass alle die vielen Konventionen, Regeln, Vorschriften und Gesetze, die zur ‚Regulierung des Alltags‘ verabredet worden sind, letztlich auf ‚Wertsetzungen‘ zurück gehen, auf ‚Präferenzen‘: man will eher A als B. So stellen z.B. die Menschenrechte für einige Verfassungen von Staaten einen ‚Wertekanon‘ dar, auf den die Staatsverfassung und alle davon abhängigen Regeln aufbauen. Bei anderen sind es Überzeugungen aus bestimmten religiösen Traditionen. Gemeinsam ist allem das Faktum der ‚primären Präferenzen‘, ohne die keine Regelung auskommt.

Und es ist sehr seltsam: über die Grundlagen der staatlichen Verfassungen wird nirgendwo diskutiert; in den meisten Staaten ist dies sogar verboten.

Dies mag vielleicht aus einem ‚Schutzbedürfnis‘ heraus motiviert sein. Wenn aber z.B. im Deutschen Grundgesetz bestimmte Werte vorausgesetzt werden, für die z.B. die empirischen Wissenschaften keine Motivation mehr liefern können, und in der täglichen Massenkommunikation die einzelnen Bürgern mit Inhalten zugedröhnt werden, die mit diesen Grundwerten ebenfalls kaum noch etwas zu tun haben, und viele alte Wertelieferanten heute eher unglaubwürdig erscheinen, dann kann man sich fragen, wie lange eine Gesellschaft noch zukunftsfähig ist, die ihre eigenen Grundlagen täglich erodieren lässt und wenig dazu zu tun scheint, sie zu erneuern. Die Freiheit dazu ist grundsätzlich gegeben, aber die Nutzung dieser Freiheit erweckt viele Fragen zum Leben …

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DAS LEBEN ALS PROJEKT DER FREIHEIT

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 11.Dez. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KURZFASSUNG

Die grundlegende Idee einer Freiheit, die das Leben, insbesondere den Menschen, auszeichnet, die die großen wissenschaftlichen, politischen und auch wirtschaftlichen Umbrüche der Neuzeit hervorgebracht hat, scheint  unter zunehmender Atemnot zu leiden. Ein kurzer Blick auf die materielle Basis des Lebens unterstützt dies nicht. Leben ist gerade wissenschaftlich ein einziges Freiheitsprojekt …. Freiheit war aber noch nie ‚bequem‘ …

KONTEXT: REDE VON FREIHEIT

In einem aktuellen Beitrag in der Frankfurter Rundschau mit Titel ‚Der sanfte Umbruch‚ wird das Phänomen der Digitalisierung in seinen weitreichenden gesellschaftlichen und individuellen Wirkungen schlaglichtartig sichtbar gemacht, und zugleich als ein Leitmotiv auf den Menschen als Wesen der Freiheit hingewiesen. Dies ist bemerkenswert, da der Faktor Mensch heute weder in den Wissenschaften noch in vielen Gesellschaften als jener ausgezeichnete Ort von verdichteter Freiheit angesehen wird, der er – bei entsprechender Betrachtung – ist. Und damit sind wir am Kern des Problems: was nützen die spannendsten Sachverhalte, wenn der potentielle Betrachter eine mentale Brille auf hat, die ihn daran hindert, das zu sehen, was ‚ist‘.

IN GUTER GESELLSCHAFT: ZERSPLITTERUNG

Mit dem Aufhaben einer falschen mentalen Brille ist man allerdings in einer guten Gesellschaft. Wie der Überblick über die Vielzahl von Einzelwissenschaften im Rahmen der Relektüre von Edelmans Buch von 1992 gezeigt hat, zersplittert sich die Wissenschaft aufgrund ihres wissenschaftsphilosophischen Selbstverständnisses in immer mehr Einzelwissenschaften, die immer mehr Details zeigen, und immer weniger Zusammenhänge (die im Schaubild dieses Beitrags genannten Einzelwissenschaften sind nur die Spitze des Eisbergs). Selbst wenn es interessante komplexe Sachverhalte geben würde, die über den Wahrnehmungshorizont einer Einzelwissenschaft hinausreichen würden, solche Sachverhalte würden unerkannt bleiben, weil es keinen organisierten ‚integrierenden Blick‘ auf das ‚Ganze im Lichte des Einzelnen‘ gibt. Die verschiedenen Integrationsfantasien der Physik, die Vision einer Weltformel , haben sich weder erfüllt noch sind sie – aufgrund vieler kritischer Argumente – prinzipiell so möglich, wie sie die Physik gerne hätte.

KRANK IM KOPF?

Wer meint, „diese Probleme der Wissenschaft gehen ihn direkt nichts an, man selbst in seinem Alltag wisse ja doch schon, irgendwie, ‚wo es lang geht‘, was soll das also“, einem solchen ist natürlich zunächst wenig zu helfen. Wer so redet hat seine eigene mentale Brille, die offensichtlich darauf optimiert ist, alles auszublenden, was stört bzw. vielleicht stören könnte.

Dass mentale Brillen im Kopf selbst große Wissenschaftler beeinflussen können, ist nichts Neues. Die Geschichte ist voll davon. Edelman selbst, dessen Buch von 1992 ich einer Re-Lektüre mit Diskussion unterziehe (siehe den Überblick über alle bisherigen Beiträge), ist jemand, der eigentlich deutlich über die Grenzen seiner eigenen Wissenschaft hinaus schaut und hier auf interessante Fehlentwicklungen hinweist. Aber in seinem eigenen, angestammten Gebiet der Gehirnforschung, wird er dennoch Opfer seiner eigenen wissenschaftsphilosophischen Setzungen. In seiner Analyse und Diskussion des Phänomens ‚Bewusstsein‘  beginnt er mit sehr klaren, fast rabiaten Worten, in denen er den besonderen Charakter des Phänomens ‚Bewusstsein‘ herausstellt („Bewusstsein ist fremd, mysteriös, das ‚letzte Geheimnis‘.“ (S.137f)). Und er beschreibt auch die methodische Unmöglichkeit, das Phänomen als das, was es ist, ein erste-Person-Phänomen, wissenschaftlich angemessen beschreiben zu können. Dann aber – trotz eines eigenen Abschnitts über das, was genau die Eigenschaften einer wissenschaftlichen Theorie seien – beschreibt er wissenschaftliche Praktiken, die im Kern methodisch nicht das leisten, was sie leisten sollen, die aber dann in ihrem Ergebnis so gehandelt werden, ‚als ob‘ sie das Phänomen Bewusstsein behandelt hätten (dies erinnert ein wenig an die Praktiken der Finanzindustrie, die schrottige Finanzen (also eigentlich nicht vorhandenes Geld) so geschickt ‚mehrfach verpackt‘ haben, dass der Käufer  den Eindruck haben konnte, er kaufe ein funktionierendes Wertpapier)). Nun wird man Edelman sicher nicht jene kriminelle Energie unterstellen, die die Finanzkontrukteure angetrieben hat, aber irgendeine Form von ‚Energie‘ muss es dennoch sein, etwas mit einer Methode A erklären zu wollen, wofür die Methode A aber nicht ausgelegt ist.

Dieses Beispiel – wie gesagt, eines von vielen Hunderten wenn nicht Tausenden – zeigt, dass das Problem der mentalen Brille, die A zeigt, obgleich wir ein Nicht-A haben, jeden, selbst den größten Wissenschaftler, treffen kann. Und es ist die Gehirntheorie von Edelman selbst, die viele der Argumente liefert, warum wir ‚von Natur aus‘ das Problem der ‚mentalen Brille‘ haben; letztlich ist es eigentlich kein ‚Problem‘, sondern eine grandiose Errungenschaft des Lebens, das allerdings, bei ‚falschem Gebrauch‘, das Gegenteil von dem bewirkt, wofür es eigentlich ausgelegt ist.

BEWUSSTWERDUNG …

In den Kapiteln 11 und 12 beschreibt Edelman das Phänomen des Bewusstseins, wie es sich aus Sicht der Gehirnforschung und der Biologie darstellt.

Stark vereinfachend kann man seine Position vielleicht dahingehend zusammen fassen, dass er einmal zwischen einem ‚primären Bewusstsein‘ und einem ‚Höheren Bewusstsein‘ unterscheidet.

Das primäre Bewusstsein ist den aktuellen sinnlichen Wahrnehmungen der Außen- und Innenwelt verhaftet, kennt nur eine Gegenwart, das Jetzt, ist aber dennoch – auf unbewusste Weise – mit einer Gedächtnismaschinerie verbunden, die automatisiert die primären Erlebnisse ‚kategorisiert‘ und ‚bewertet‘. Schon hier beginnt also eine ‚Interpretation‘ von ‚Welt‘ sowohl in ihren ‚wissbaren Strukturen‘ wie auch in ihren ‚individuellen Bewertungen‘, und zwar ‚unbewusst‘. (Den Begriff ‚unbewusst‘  erläutert Edelman erst im Kap.13).

Vom primären, in der Gegenwart verhafteten Bewusstsein unterscheidet er das ‚höhere Bewusstsein‘, das in der Lage ist, die Gegenwart zu übersteigen durch Abstraktionsbildungen, welche die Gegenart und Vergangenheit explizit vergleichen können. Ein wichtiges Mittel ist hier ferner die symbolische Sprache, mit deren Hilfe nicht nur Momente des wahrgenommenen und erinnerten Wissens ‚fixiert‘, ‚bewusst erinnert‘, und ’neu konfiguriert (gedacht)‘ werden können, sondern das individuelle Gehirn kann mittels der Sprache mit einem anderen Gehirn in begrenztem Umfang ‚kommunizieren‘.

Die Wirkung dieser neuen inneren Organisationsstrukturen des Körpers zeigen sich in der Geschichte der Evolution unübersehbar und massiv: seit dem Auftreten des Homo  sapiens ist die Komplexität des Lebens auf der Erde in atemberaubend kurzer Zeit explodiert; dies ist eine extreme Form von exponentieller Beschleunigung.

Wichtig ist aber jene Unterscheidung von Edelman, dass die Entwicklung der Sprache der Entwicklung der komplexen Begriffsbildung sowie der Entwicklung des physiologischen Sprechapparates nachfolgt. Ohne komplexe Begriffsbildung und ohne Sprechapparat keine Sprache. Dies ist insofern wichtig als die Ausbildung bestimmter symbolischer Ausdrucksmittel und deren Assoziierung mit bestimmten ‚Inhalten‘ ein sekundärer Prozess ist.

KEIN DETERMINISMUS

Ebenso wichtig ist, sich bewusst zu machen, dass sowohl bei der ontogenetischen Entwicklung des Gehirns in einem einzelnen Organismus sowie in der kontinuierlichen Arbeit eines individuellen Gehirns in keiner Phase ein ‚Determinismus‘ vorliegt. Sowohl das individuelle Gehirnwachstum wie auch die kontinuierliche Arbeit des Gehirns ist sowohl von vielen zufälligen Faktoren geprägt wie auch von beständigen Selektionsprozessen: aus einer Fülle von Optionen müssen ständig einige wenige ausgewählt werden, um den Lebensprozess nicht zum Stillstand zu bringen. Und hier treffen wir auf die Wurzel aller mentalen Brillen!

Um zu überleben, muss der individuelle Organismus aufgrund begrenzter Ressourcen ständig auswählen und damit Entscheidungen fällen. Diese Entscheidungen sind primär ‚automatisch‘, ‚unbewusst‘, eine Mischung aus genetischen induzierten ‚Tendenzen‘ sowie durch bisherige ‚Erfahrungen mit ihren impliziten Bewertungen‘. Dieser Mechanismus kann ‚deterministisch‘ wirken. Allerdings erlauben die höheren Gehirnleistungen – insbesondere auch die Sprache – diese weitgehend unbewussten Prozesse partiell ’sichtbar‘ und damit zu ‚explizitem Wissen‘ zu machen, das dann in komplexere Beziehungen und Modelle eingebaut werden kann, mittels deren Tendenzen sichtbar werden, implizite Voraussetzungen, mögliche Zukünfte. Ein solches explizit reflektierendes Verhalten ist mühsam, bietet aber prinzipiell die Möglichkeit, aus dem dumpfen Automatismus einer genialen Maschinerie partiell und schrittweise zu entkommen. Allerdings auch nur, wenn man sowohl den Wahrnehmungsprozess wie auch den Denkprozess beständig mit Alternativen, mit anderen Mustern konfrontiert. Die eigene Erfahrung ist sich selbst gegenüber weitgehend ‚blind‘. Die verfügbare Erfahrung als solche ist weder ‚wahr‘ noch ‚falsch‘, sie wirkt sich aus auf den kognitiven Verarbeitungsprozess, und diese Auswirkungen sind primär unbewusst. Es erfordert explizit Anstrengung, sich diesen bewusst zu machen.

Die Erfindung der neuzeitlichen experimentellen Wissenschaften war in diesem Kontext ‚revolutionär‘, da man versucht hat, die automatisierten, unbewussten Abläufe der individuellen Denkprozesse zu ‚externalisieren‘, sie an ‚externe‘ Objekte und Verfahren zu knüpfen, sie wiederholbar und transparent zu machen, unabhängig von den Besonderheiten eines individuellen Beobachters. Bis zu einem gewissen Grad hat diese Strategie bis heute große Wirkungen erzielt.

Allerdings haben diese Erfolge aus den Blick geraten lassen, dass die individuellen Gehirne der Forscher immer noch im Spiel bleiben, und dass diese individuellen Gehirne ihr eigenes ‚Betriebsprotokoll‘ haben, ihre ‚Policy‘, wie sie mit erlebbaren Ereignissen umgehen. Das Gehirn aus sich heraus ermöglicht zwar eine ‚kritische Theoriebildung‘, wenn aber der ‚Steuermann des Verhaltens‘ (Wer ist das genau?) die Mechanismen einer kritischen Überprüfung, eines kritischen Lernens nicht aktiviert, nicht nutzt, dann kann das Gehirn – wie viele Jahrtausende Kulturgeschichte zeigen – sich in Modellbildungen verrennen, die ‚an sich‘ schön aussehen, aber von nur geringem Erklärungswert sind, die Leben behindern statt zu fördern.

FREIHEIT ODER UNFREIHEIT

So wie im berühmten Beispiel mit dem halb vollen Glas, das der ‚Optimist‘ anders sieht als der ‚Pessimist‘, ist es auch hier ein wenig eine Frage der Einschätzung, ob man das biologische Wunderwerk Homo sapiens nun als einen gewissen ‚Höhepunkt‘ (aber nicht Endpunkt!) der bisherigen Evolution ansieht, oder aber als das nächste ‚Auslaufmodell‘.

Wer sich den mühevollen Weg der biologischen Evolution vergegenwärtigt, am besten noch erweitert um die Evolution des Universums, der kann eigentlich nicht umhin ins Staunen zu geraten, welche unfassbare Komplexitäten sich hier ‚aus sich heraus‘ organisiert haben. Dass wir heute vielfach an Überlastungen, an Versagen dieser Komplexität leiden, die Schwierigkeiten erleben, die eine Umsetzung der implizit gegebenen Möglichkeiten mit sich bringen, ist aus Sicht des Beteiligtseins nachvollziehbar. Dennoch waren Schwierigkeiten der Umsetzung eigentlich noch nie ein Beweis der Unmöglichkeit. Gemessen an den Problemen, die das biologische Leben in den vergangenen ca. 3.8 Mrd Jahren erleben und meistern musste, ist das, was wir heute erleben, eigentlich ein ‚Luxusproblem‘. Allerdings, die grundsätzliche Einsicht in das ‚Wunder des Lebens‘ ist noch nicht automatisch die ‚Umsetzung eines lebbaren Weges‘.

Andererseits, alle diese Probleme gibt es nur, weil das Leben von Grunde auf ein Projekt der Freiheit ist und es diese Offenheit für eine je größere und andere Zukunft ist, die permanent ‚Stress‘ erzeugt. Alles in der Vergangenheit erworbene Wissen, umgesetzte Verfahren und Strukturen haben eine eingebaute ‚Verfallszeit‘, weil der umgebenden universale Weltprozess dynamisch ist, sich beständig verändert, und alles, was bis zu einem gewissen Zeitpunkt erreicht wurde, kann nur erhalten werden, wenn es ‚angemessen‘ (nachhaltig, resilient) verändert wird. Wäre unser menschliches und gesellschaftliches Denken weniger an ‚Statik‘ ausgerichtet, weniger an ‚Bewahrung‘, weniger an ‚politischer Korrektheit‘, sondern stattdessen eher an ‚kontinuierlicher Veränderung‘, an ‚kreativer Forschung‘, an ‚experimentellen Entwürfen‘, an ‚unkonventionellen Typen‘, dann wären wir wahrscheinlich grundlegend besser aufgestellt.

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

 

 

 

 

 

 

KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen

Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen

Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen

Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DAS WAS MENSCHSEIN AUSMACHT. Eine Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 8.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

  1. Während der Auseinandersetzung mit dem Buch von Edelman gab es unterschiedliche Wechselwirkungen mit anderen gedanklichen Prozessen. Ein Thema hier ist eine mögliche grundlegende Typologie von ‚Intelligenz‘.

  2. Vorab müsste man das Verhältnis des Begriffs ‚Intelligenz‘ zu Begriffen wie ‚Lernen‘, ‚Bewusstsein‘, ‚Geist‘ und ‚Gehirn‘ klären. Hier nur soviel, dass alle diese Begriffe ein ‚Gehirn‘ – oder eine vergleichbare materielle Struktur – zum Funktionieren voraussetzen. Allerdings kann das bloße Vorhandensein solcher materieller Strukturen nicht garantieren, dass es dann auch so etwas wie ‚Geist‘, ‚Bewusstsein‘, ‚Lernen‘ und ‚Intelligenz‘ gibt.

  3. Der Begriff ‚Geist‘ wird im Englischen als ‚mind‘ gerne und oft benutzt, um Besonderheiten im Verhalten des Homo sapiens zu ‚markieren‘. Allerdings ist dieser Begriff sehr diffus und bislang in keiner Theorie hinreichend erklärt.

  4. Meistens werden die Begriffe ‚Bewusstsein‘ und ‚Geist‘ sehr ähnlich benutzt, ohne dass deren Beziehung zueinander – wegen einer fehlenden Theorie – letztlich klar ist. Da unser ‚Zugang‘ zum Phänomen ‚Geist‘ irgendwie über das beobachtbare Verhalten und das ‚Bewusstsein‘ läuft, ist der Begriff ‚Geist‘ eher ein theoretischer Begriff innerhalb einer Theorie, die man auf der Basis von Bewusstseinsdaten formulieren würde. Mit dem Begriff ‚Bewusstsein‘ wäre dies ähnlich: würden wir alle erreichbaren Daten aus der 1.Person und 3.Person Perspektive sammeln, könnten wir eine Theorie bauen, die den theoretischen Term ‚Bewusstsein‘ enthält und damit indirekt ‚erklärt‘. Paradox würde es, weil der Begriff ‚Bewusstsein‘ dann nicht nur eine theoretische Beschreibung ‚von etwas‘ wäre, also einen ‚Gegenstand‘ der Beschreibung bilden würde, sondern zugleich auch den ‚Autor‘ der ‚Beschreibung‘ repräsentieren würde, allerdings nur indirekt. Der so theoretisch beschriebene ‚Gegenstand Bewusstsein‘ würde wesentliche Eigenschaften nicht enthalten. Für diesen Fall eines ‚Gegenstandes‘ der zugleich ‚Autor‘ ist gibt es bislang keinen akzeptierten Theoriebegriff.

  5. Der ‚wissenschaftliche Intelligenzbegriff‘ orientiert sich am beobachtbaren Verhalten und definierten Referenzpunkten. Dieses Verfahren wurde seit gut 100 Jahren auf den Homo sapiens angewendet und dann auf viele andere biologische Systeme verschieden vom Homo sapiens. Man könnte grob von ‚Menschlicher Intelligenz‘ sprechen und von ‚Tierischer Intelligenz‘ mit vielen Überschneidungen.

  6. Daneben gibt es heute eine ‚Maschinelle Intelligenz‘, die bislang aber in keiner allgemein akzeptierten Form beschrieben und untersucht wird. Die Beziehung zur ‚menschlichen‘ und ‚tierischen‘ Intelligenz wurde bislang nicht systematisch untersucht.

  7. Im Alltag, in den Medien, in der Kunst gib es eine ‚fiktive Intelligenz‘, der man nahezu alles zutraut, ohne dass klar ist, ob dies wirklich möglich ist. Die ‚fiktive Intelligenz‘ ist gleichsam eine Art ‚Sammelpunkt‘ aller Projektionen von dem, was Menschen sich unter ‚Intelligenz‘ vorstellen können.

  8. Durch die Koexistenz von Menschen und neuer Informations-Technologie kann es zu einer neuen ‚hybriden Intelligenz‘ kommen, in der menschliche und maschinelle Intelligenz auf neue Weise symbiotisch zusammen wirken. Dazu gibt es bislang kaum Forschungen; stattdessen versucht man, die maschinelle Intelligenz möglichst unabhängig vom Menschen und oft in Konkurrenz und im Gegensatz zu ihm zu entwickeln. Zugleich verbleibt die Forschung zur menschlichen Intelligenz auf niedrigem Niveau; viele – die meisten? – wichtigen Eigenschaften sind weiterhin unerforscht. Beides zusammen blockiert die Entwicklung von wirklich starken, neuen Intelligenzformen.

  9. Durch die ungelöste Paradoxie von zugleich ‚Gegenstand‘ und ‚Autor‘ bleiben viele wichtige, vielleicht die wichtigsten, Eigenschaften menschlicher Intelligenz im Verborgenen. Es gibt hier einen Erkenntnismäßigen ‚blinden Fleck‘ der nur sehr schwer aufzulösen ist.

  10. Wenn man sieht, wie in vielen Ländern dieser Erde, auch in jenen, in denen man glaubte, viele ‚primitive‘ Sichten zur Welt, zum Leben, zum Menschen überwunden zu haben, große Teile der Bevölkerung und der politischen Leitinstitutionen wieder in solche ‚primitiveren‘ Sichten und Verhaltensweisen zurückfallen und darin zunehmend Anhänger finden, dann kann man dies als Indikator dafür nehmen, dass differenziertere, komplexere Sichten des Lebens und die dazu gehörigen Verhaltenskomplexe keine Automatismen darstellen. Nur weil jemand, eine Gruppe, eine Population zu einer bestimmten Zeit einmal eine ‚Einsicht‘ hatte, ein aus dieser Einsicht resultierendes ‚praktisches Lebenskonzept umgesetzt hat‘, folgt nicht automatisch, dass diese Einsicht in den Individuen der Population ‚am Leben bleibt‘. Die Struktur und Dynamik eines einzelnen Homo-sapiens-Exemplars ist von solch einer Komplexität, dass nur maximale Anstrengungen dieses Potential an Freiheit zu einer ‚konstruktiven Lebensweise‘ motivieren können. Dabei ist das Wort ‚motivieren‘ wichtig. Im Homo sapiens kulminiert die ‚Freiheit‘, die sich in der Materie und Struktur des gesamten Universums samt den biologischen Strukturen grundlegend findet, zu einem vorläufigen ‚Optimum‘, das sich jeder vollständigen ‚Verrechnung‘ in fixierte Strukturen widersetzt. Man kann einen Homo sapiens einsperren, töten, mit Drogen willenlos machen, durch Entzug von materiellen Möglichkeiten seiner Realisierungsbasis berauben, durch falsche Informationen und Bildungen fehlleiten, man kann aber seine grundlegende Freiheit, etwas ‚Anderes‘, etwas ‚Neues‘ zu tun, dadurch nicht grundlegend aufheben. In der Freiheit jedes einzelnen Homo sapiens lebt potentiell die mögliche Zukunft des gesamten Universums weiter. Ein unfassbarer Reichtum. Die größte Lüge und das größte Verbrehen an der Menschlichkeit und am Leben überhaupt ist daher genau diese grundlegende Eigenschaft des Homo sapiens zu verleugnen und zu verhindern.

  11. Natürlich hat der Homo sapiens noch weitere grundlegende Eigenschaften über die zu sprechen gut tun würde.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

KÜNSTLICHE INTELLIGENZ (KI) – CHRISTLICHE THEOLOGIE – GOTTESGLAUBE. Ein paar Gedanken

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
24.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG

Der folgende Text wurde im September in einer christlichen Zeitschrift veröffentlicht [*]. Es war (und ist) ein ‚experimenteller Text‘, bei dem ich versucht habe, auszuloten, was gedanklich passiert, wenn man die beiden Themenkreise ‚Glaube an Gott im   Format christlicher Theologie‘ mit dem Themenkreis ‚Künstliche Intelligenz‘ zusammen führt. Das Ergebnis kann überraschen, muss aber nicht. Dieser ganze Blog ringt von Anbeginn um das Verhältnis von Philosophie, Wissenschaft (mit Technologie) und dem Phänomen der Spiritualität als Menschheitsphänomen, und die christliche Sicht der Dinge (die in sich ja keinesfalls einheitlich ist), ist nur eine Deutung von Welt unter vielen anderen. Wer die Einträge dieses Blogs durch mustert (siehe Überblick) wird feststellen, dass es sehr viele Beiträge gibt, die um die Frage nach Gott im Lichte der verfügbaren Welterfahrung kreisen. Die aktuelle Diskussion von W.T.Stace’s Buch ‚Religion and the Modern Mind‘ (Beginn mit Teil 1 HIER) setzt sich auch wieder   mit dieser Frage auseinander.

INHALT BEITRAG

Im Alltag begegnen wir schon heute vielfältigen Formen von Künstlicher Intelligenz. Bisweilen zeigt sie sehr menschenähnliche Züge. In Filmen werden uns Szenarien vorgeführt, in denen Superintelligenzen zukünftig die Herrschaft über uns Menschen übernehmen wollen. Wie verträgt sich dies mit unserem Menschen-und Gottesbild? Macht Glauben an Gott dann noch Sinn?

I. KI IST SCHON DA …

Vielen Menschen ist gar nicht bewusst, wo sie im Alltag schon mit Programmen der Künstlichen Intelligenz (KI) zu tun haben. Schaut man sich aber um, wird man entdecken, dass Sie scheinbar schon überall am Werk ist. Hier ein paar Stichworte: Kundenanfragen werden immer mehr durch KI-Programme bestritten. In der Logistik: In Lagerhallen und ganzen Häfen arbeiten intelligente Roboter, die wiederum von anderen KI-Programmen überwacht und optimiert werden. Ähnliches in Fabriken mit Produktionsstraßen. Für die Wartung von Maschinenbenutzen Menschen Datenhelme, die über ein KI-Programm gesteuert werden und die dem Menschensagen, was er sieht, und wo er was tun soll. In der Landwirtschaft sind die beteiligten Maschinen vernetzt, haben KI-Programme entweder an Bord oder werden über Netzwerke mit KI-Programmen verbunden: diese kontrollieren den Einsatz und steuern Maßnahmen. Auf den Feldern können diese Maschinen autonom fahren. Im Bereich Luftfahrt und Schifffahrt können sich Flugzeuge und Schiffe schon heute völlig autonom bewegen, ebenso beim LKW-Verkehr und auf der Schiene. Durch das Internet der Dinge (IoT) wird gerade der Rest der Welt miteinander vernetzt und damit einer zunehmenden Kontrolle von KI-Programmen zugänglich gemacht. In der Telemedizin ist dies schon Alltag: Ferndiagnose und Fernbehandlung sind auf dem Vormarsch. Schon heute wird für die Diagnose schwieriger und seltener Krankheiten KI eingesetzt, weil sie besser ist als ganze Gruppen menschlicher Experten. Viele komplizierte Operationen – speziell im Bereich Gehirn – wären ohne Roboter und KI schon heute unmöglich. KI-Programme entschlüsseln das Erbgut von Zellen, Suchen und Finden neue chemische Verbindungen und pharmakologische Wirkstoffe.

In der Finanzwirtschaft haben KI-Programme nicht nur den Handel mit Aktien und anderen Finanzprodukten übernommen (Stichwort: Hochfrequenzhandel), sondern sie verwalten auch zunehmend das Vermögen von Privatpersonen, übernehmen den Kontakt mit den Kunden, und wickeln Schadensfälle für Versicherungen ab. Bei anwaltlichen Tätigkeiten werden Routineaufgaben von KI-Programmen übernommen. Richter in den USA lassen sich in einzelnen Bundesländern mit KI-Programmen die Wahrscheinlichkeit ausrechnen, mit der ein Angeklagter wieder rückfällig werden wird; dies wird zum Schicksal für die Angeklagten, weil die Richter diese Einschätzungen in ihr Urteil übernehmen. Das Militär setzt schon seit vielen Jahren in vielen Bereichen auf KI-Programme. Zuletzt bekannt durchfliegende Kampfroboter (Drohnen). Dazu weltweite Ausspähprogramme von Geheimdiensten, die mit Hilfe von KI-Programmen gewaltige Datenströme analysieren und bewerten.Diese Aufzählung mag beeindruckend klingen, sie ist aber nicht vollständig. In vielen anderen Bereichen wie z.B. Spielzeug, Online-Spiele, Musikproduktion,Filmproduktion, Massenmedien, Nachrichtenproduktion,… sind KI-Programme auch schon eingedrungen. So werden z.B. mehr und mehr Nachrichtentexte und ganze Artikel für Online-Portale und Zeitungen durch KI-Programme erstellt; Journalisten waren gestern. Dazu hunderttausende von sogenannten ’Bots’ (Computerprogramme, die im Internet kommunizieren, als ob sie Menschen wären), die Meinungen absondern, um andere zu beeinflussen. Was bedeuten diese Erscheinungsformen Künstlicher Intelligenz für uns?

A. Freund oder Konkurrent?

Bei einem nächtlichen Biergespräch mit einem der berühmtesten japanischen Roboterforschern erzählte er aus seinem Leben, von seinen Träumen und Visionen. Ein Thema stach hervor: seine Sicht der Roboter. Für ihn waren Roboter schon seit seiner Kindheit Freunde der Menschen, keinesfalls nur irgendwelche Maschinen. Mit diesen Roboter-Freunden soll das Leben der Menschen schöner, besser werden können. In vielen Science-Fiction Filmen tauchen Roboter in beiden Rollen auf: die einen sind die Freunde der Menschen, die anderen ihre ärgsten Feinde; sie wollen die Menschen ausrotten, weil sie überflüssig geworden sind. Bedenkt man, dass die Filme auf Drehbüchern beruhen, die Menschen geschrieben haben, spiegelt sich in diesem widersprüchlichen Bild offensichtlich die innere Zerrissenheit wieder, die wir Menschen dem Thema Roboter, intelligenten Maschinen, gegenüber empfinden. Wir projizieren auf die intelligenten Maschinen sowohl unsere Hoffnungen wie auch unsere Ängste, beides übersteigert, schnell ins Irrationale abrutschend.

B. Neue Verwundbarkeiten

Ob intelligente Maschinen eher die Freunde der Menschen oder ihre Feinde sein werden, mag momentan noch unklar sein, klar ist jedoch, dass schon jetzt der Grad der Vernetzung von allem und jedem jeden Tag einen realen Raum mit realen Bedrohungen darstellt. Global operierenden Hacker-Aktivitäten mit Datendiebstählen und Erpressungen im großen Stil sind mittlerweile an der Tagesordnung. Während die einen noch versuchen, es klein zu reden, lecken andere schon längst ihre Wunden und es gibt immer mehr Anstrengungen, diesen Angriffen mehr ’Sicherheit’ entgegen zu setzen. Doch widerspricht das Prinzip der Zugänglichkeit letztlich dem Prinzip der vollständigen Abschottung. Wenn die Vernetzung irgendeinen Sinn haben soll, dann eben den, dass es keine vollständige Abschottung gibt. Dies läuft auf die große Kunst einer ’verabredeten Abschottung’ hinaus: es gibt eine ’bestimmte Datenkonstellation, die den Zugang öffnet’. Dies aber bedeutet, jeder kann herumprobieren, bis er diese Datenkonstellation gefunden hat. Während die einen KI-Programme einsetzen, um diese Datenschlüssel zu finden, versuchen die anderen mit KI-Programmen, mögliche Angreifer bei ihren Aktivitäten zu entdecken. Wie dieses Spiel auf lange Sicht ausgehen wird, ist offen. In der Natur wissen wir, dass nach 3.8 Milliarden Jahren biologischem Leben die komplexen Organismen bis heute beständig den Angriffen von Viren und Bakterien ausgeliefert sind, die sich um Dimensionen schneller verändern können, als das biologische Abwehrsystem(das Immunsystem) lernen kann. Die bisherige Moral aus dieser Geschichte ist die, dass diese Angriffe bei komplexen Systemen offensichtlich ko-existent sind, dazu gehören. Nur ein schwacher Trost ist es, dass der beständige Abwehrkampf dazu beiträgt, die Systeme graduell besser zu machen. Mit Blick auf diese fortschreitende Vernetzung ist es wenig beruhigend, sich vorzustellen, dass es in ca. 70- 90 Jahren (wie viele vermuten) (Anmerkung: Siehe dazu eine längere Argumentation im 1.Kap. von Bostrom (2014) [Bos14]) tatsächlich eine echte technische Superintelligenz geben wird, die allen Menschen gegenüber überlegen ist; eine solche technische Superintelligenz könnte im Handumdrehen alle Netze erobern und uns alle zu ihren Gefangenen machen. Nichts würde mehr in unserem Sinne funktionieren: die Super-KI würde alles kontrollieren und uns vorschreiben, was wir tun dürfen. Über das Internet der Dinge und unsere Smartphones wäre jeder 24h unter vollständiger Kontrolle. Jede kleinste Lebensregung wäre sichtbar und müsste genehmigt werden. Ob und was wir essen, ob wir noch als lebenswert angesehen werden …

C. Noch ist es nicht soweit …

Zum Glück ist dieses Szenario einer menschenfeindlichen Superintelligenz bislang nur Science-Fiction. Die bisherigen sogenannten KI-Programme sind nur in einem sehr eingeschränkten Sinne lernfähig. Bislang sind sie wie abgerichtete Hunde, die nur das suchen,was ihnen ihre Auftraggeber vorgeben, zu suchen. Sie haben noch keine wirkliche Autonomie im Lernen, sie können sich noch nicht selbständig weiter entwickeln(nur unter speziellen Laborbedingungen). Allerdings sammeln sie Tag und Nacht fleißig Daten von allem und jedem und erzeugen so ihre einfachen Bilder von der Welt: z.B. dass die Männer im Alter von 21 in der Region Rhein-Main mit Wahrscheinlichkeit X folgende Gewohnheiten haben …. Herr Müller aus der Irgendwo-Straße hat speziell jene Gewohnheiten …. seine Freunde sind … Es gibt eine hohe Wahrscheinlichkeit dass er Partei Y wählen wird … dass er in drei Monaten ein neues Auto vom Typ X kaufen wird ….am liebsten klickt er folgende Adressen im Internet an …

In den Händen von globalen Firmen, anonymen Nachrichtendiensten, autoritären Regierungen oder verbrecherischen Organisationen können allerdings schon diese Daten zu einer echten Bedrohung werden, und diese Szenarien sind real. Die Rolle der bösen Superintelligenz wird hier bis auf weiteres noch von Menschen gespielt; Menschen haben in der Vergangenheit leider zur Genüge bewiesen, dass sie das Handwerk des Bösen sehr gut beherrschen können…Es stellt sich die Frage, ob sich die bisherigen einfachen künstlichen Intelligenzen weiter entwickeln können? Lernen künstliche Intelligenzen anders als Menschen? Welche Rolle spielen hier Werte? Sind Werte nicht ein altmodischer Kram, den nur Menschen brauchen (oder selbst diese eigentlich nicht)? Schließlich, wo kommt hier Gott ins Spiel? Tangieren künstliche Intelligenzen den menschlichen Glauben an Gott überhaupt?

II. WAS IST ’KÜNSTLICHE INTELLIGENZ’

Für eine Erkundungsreise in das Land der Künstlichen Intelligenz ist die Lage nicht ganz einfach, da das Gebiet der KI sich mittlerweile sehr stürmisch entwickelt. Immer mehr Konzepte stehen nebeneinander im Raum ohne dass es bislang allgemein akzeptierte Theorie- und Ordnungskonzepte gibt. (Anmerkung: Für zwei sehr unterschiedliche historische Rückblicke in das Thema sei verwiesen auf Mainzer (1995) [Mai95] und Nilsson (2010) [Nil10]. Für eine sehr populäre, wenngleich methodisch problematische, Einführung in den Stand der Disziplin siehe Russel und Norvik (2010) [RN10]).

Wir besuchen hier für einen Einstieg einen der großen Gründungsväter ganz zu Beginn 1936 – 1950 Alan Matthew Turing, und dann für die Zeit 1956 – 1976 Alan Newell und Herbert A.Simon. (Anmerkung: Simon war auch ein Nobelpreisträger im Gebiet der Wirtschaftswissenschaften 1978.) Dann schauen wir noch kurz in allerneueste Forschungen zum Thema Computer und Werte.

A. Am Anfang war der Computer

Wenn wir von künstlicher Intelligenz sprechen setzen wir bislang immer voraus, dass es sich um Programme (Algorithmen) handelt, die auf solchen Maschinen laufen, die diese Programme verstehen. Solche Maschinen gibt es seit 1937 und ihre technische Entwicklung hing weitgehend davon ab, welche Bauteile ab wann zur Verfügung standen. Das Erstaunliche an der bisherigen Vielfalt solcher Maschinen, die wir Computer nennen, ist, dass sich alle diese bis heute bekannt gewordenen Computer als Beispiele (Instanzen) eines einzigen abstrakten Konzeptes auffassen lassen. Dieses Konzept ist der Begriff des universellen Computers, wie er von Alan Matthew Turing 1936/7 in einem Artikel beschrieben wurde (siehe: [Tur 7] 4 ). In diesem Artikel benutzt Turing das gedankliche Modell einer endlichen Maschine für jene endlichen Prozesse, die Logiker und Mathematiker intuitiv als ’berechenbar’ und ’entscheidbar’ ansehen. (Anmerkung: Zum Leben Turings und den vielfältigen wissenschaftlichen Interessen und Einflüssen gibt es die ausgezeichnete Biographie von Hodges (1983) [Hod83].) Das Vorbild für Turing, nach dem er sein Konzept des universellen Computers geformt hat, war das eines Büroangestellten, der auf einem Blatt Papier mit einem Bleistift Zahlen aufschreibt und mit diesen rechnet.

B. Computer und biologische Zelle

Was Turing zur Zeit seiner kreativen Entdeckung nicht wissen konnte, ist die Tatsache, dass sein Konzept des universellen Computers offensichtlich schon seit ca. 3.5 Milliarden Jahre als ein Mechanismus in jeder biologischen Zelle existierte. Wie uns die moderne Molekularbiologie über biologische Zellen zur Erfahrung bringt(siehe [AJL + 15]), funktioniert der Mechanismus der Übersetzung von Erbinformationen in der DNA in Proteine (den Bausteinen einer Zelle) mittels eines Ribosom-Molekülkomplexes strukturell analog einem universellen Computer. Man kann dies als einen Hinweis sehen auf die implizite Intelligenz einer biologischen Zelle. Ein moderner Computer arbeitet prinzipiell nicht anders.

C. Computer und Intelligenz

Die bei Turing von Anfang an gegebene Nähe des Computers zum Menschen war möglicherweise auch die Ursache dafür, dass sehr früh die Frage aufgeworfen wurde, ob, und wenn ja, wieweit, ein Computer, der nachdem Vorbild des Menschen konzipiert wurde, auch so intelligent werden könnte wie ein Mensch?

Der erste, der diese Frage in vollem Umfang aufwarf und im einzelnen diskutierte, war wieder Turing. Am bekanntesten ist sein Artikel über Computerintelligenz von 1950 [Tur50]. Er hatte aber schon 1948 in einem internen Forschungsbericht für das nationale physikalische Labor von Großbritannien einen Bericht geschrieben über die Möglichkeiten intelligenter Maschinen. (Anmerkung: Eine Deutsche Übersetzung findet sich hier: [M.87]. Das Englische Original ’Intelligent Machinery’ von 1948 findet sich online im Turing Archiv: http://www.alanturing.net/intelligent_machinery.) In diesem Bericht analysiert er Schritt für Schritt, wie eine Maschine dadurch zu Intelligenz gelangen kann, wenn man sie, analog wie bei einem Menschen, einem Erziehungsprozess unterwirft, der mit Belohnung und Strafe arbeitet. Auch fasste er schon hier in Betracht, dass sein Konzept einer universellen Maschine das menschliche Gehirn nachbaut. Turing selbst konnte diese Fragen nicht entscheiden, da er zu dieser Zeit noch keinen Computer zur Verfügung hatte, mit dem er seine Gedankenexperimente realistisch hätte durchführen können. Aber es war klar, dass mit der Existenz seines universellen Computerkonzeptes die Frage nach einer möglichen intelligenten Maschine unwiderruflich im Raum stand. Die Fragestellung von Turing nach der möglichen Intelligenz eines Computers fand im Laufe der Jahre immer stärkeren Widerhall. Zwei prominente Vertreter der KI-Forschung, Allen Newell und Herbert A.Simon, hielten anlässlich des Empfangs des ACM Turing-Preises1975 eine Rede, in der sie den Status der KI-Forschung sowie eigene Arbeiten zum Thema machten (siehe dazu den Artikel [NS76]).

D. Eine Wissenschaft von der KI

Für Newell und Simon ist die KI-Forschung eine empirische wissenschaftliche Disziplin, die den Menschen mit seinem Verhalten als natürlichen Maßstab für ein intelligentes Verhalten voraussetzt. Relativ zu den empirischen Beobachtungen werden dann schrittweise theoretische Modelle entwickelt, die beschreiben, mit welchem Algorithmus man eine Maschine (gemeint ist der Computer) programmieren müsse, damit diese ein dem Menschen vergleichbares – und darin als intelligent unterstelltes – Verhalten zeigen könne. Im Experiment ist dann zu überprüfen, ob und wieweit diese Annahmen zutreffen.

E. Intelligenz (ohne Lernen)

Aufgrund ihrer eigenen Forschungen hatten Newell und Simon den unterstellten vagen Begriff der ’Intelligenz’ schrittweise ’eingekreist’ und dann mit jenen Verhaltensweisen in Verbindung gebracht, durch die ein Mensch (bzw. ein Computer) bei der Abarbeitung einer Aufgabe schneller sein kann, als wenn er nur rein zufällig’ handeln würde. ’Intelligenz’ wurde also in Beziehung gesetzt zu einem unterstellten ’Wissen’ (und zu unterstellten ‚Fertigkeiten‘), über das ein Mensch (bzw. ein Computer) verfügen kann, um eine bestimmte Aufgabe ’gezielt’ zu lösen. Eine so verstandene ’Intelligenz’ kann sich aus sehr vielfältigen, möglicherweise sogar heterogenen, Elementen zusammen setzen.

Dies erklärt ihre mannigfaltigen Erscheinungsweisen bei unterschiedlichen Aufgaben. ’Intelligenz’ ist dabei klar zu unterscheiden, von einem ’Lernen’. Ist die Aufgabenstellung vor dem Einsatz einer Maschine hinreichend bekannt, dann kann ein Ingenieur all das spezifische Wissen, das eine Maschine für die Ausführung der Aufgabe benötigt, von vornherein in die Maschine ’einbauen’. In diesem Sinne ist jede Maschine durch das Knowhow von Ingenieuren in einem spezifischen Sinne ’intelligent’. Bis vor wenigen Jahrzehnten war dies die Standardmethode, wie Maschinen von Ingenieuren entworfen und gebaut wurden.

F. Lernen ermöglicht Intelligenz

Im Fall von biologischen Systemen ist ein solches Vorgehen kaum möglich. Biologische Systeme entstehen (durch Zellteilung), ohne dass bei der Entstehung bekannt ist, wie die Umwelt aussehen wird, ob sie sich verändert, welche Aufgaben das biologische Systemlösen muss. Zwar haben alle biologische Systeme auch genetisch vorbestimmte Verhaltensmuster, die gleich bei der Geburt zur Verfügung stehen, aber darüber hinaus haben alle biologische Systeme einen ariablen Anteil von Verhaltensweisen, die sie erst lernen müssen. Das Lernen ist hier jene Fähigkeit eines biologischen Systems, wodurch es seine internen Verhaltensstrukturen in Abhängigkeit von der ’Erfahrung’ und von ’spezifischen Bewertungen’ ’ändern’ kann. Dies bedeutet, dass biologische Systeme durch ihre Lernfähigkeit ihr Verhalten ’anpassen’ können. Sie können damit – indirekt – ein ’spezifisches Wissen’ erwerben, das ihnen dann eine spezifische ’Intelligenz’ verleiht, wodurch das biologischen System besser als durch Zufall reagieren kann. Diese Fähigkeit eines situationsgetriebenen Wissens besaßen Maschinen bis vor kurzem nicht. Erst durch die modernen Forschungen zu einer möglichen ’künstlichen Intelligenz (KI)’ machte man mehr und mehr Entdeckungen, wie man Maschinen dazu in die Lage versetzen könnte, auch nach Bedarf neues Verhalten erlernen zu können. Innerhalb dieses Denkrahmens wäre dann eine ’künstliche Intelligenz’ eine Maschine, hier ein Computer, der über Algorithmen verfügt, die ihn in die Lage versetzen, Aufgaben- und Situationsabhängig neues Verhalten zu erlernen, falls dies für eine bessere Aufgabenbearbeitung wünschenswert wäre.

Die noch sehr ursprüngliche Idee von Turing, dass ein Computer Lernprozesse analog dem der Menschen durchlaufen könnte, inklusive Belohnung und Bestrafung, wurde seitdem auf vielfältige Weise weiter entwickelt. Eine moderne Form dieser Idee hat unter dem Namen ’Reinforcement Learning’ sehr viele Bereiche der künstlichen Intelligenzforschung erobert (vgl. Sutton und Barto (1998) [SB98]).

G. KI und Werte

Für die Aufgabenstellung einer ’lernenden Intelligenz’ spielen ’Werte’ im Sinne von ’Verhaltenspräferenzen’ eine zentrale Rolle. Ein Gebiet in der KI-Forschung, in dem diese Thematik sehr intensiv behandelt wird, ist der Bereich der ’Entwicklungs-Robotik’ (Engl.:’developmental robotics’). In diesem Bereich wurde u.a. die Thematik untersucht (vgl. Kathryn Merrick(2017) [Mer17]), wie ein Roboter ’von sich aus’, ohne direkte Befehle, seine Umgebung und sich selbst ’erforschen’ und aufgrund dieses Lernens sein Verhalten ausrichten kann. Dabei zeigt sich, dass reine Aktivierungsmechanismen, die im Prinzip nur die Neugierde für ’Neues’ unterstützen, nicht ausreichend sind. Außerdem reicht es nicht aus, einen Roboter isoliert zu betrachten, sondern man muss Teams oder ganze Populationen von Robotern betrachten, da letztlich ein ’Wert’ im Sinne einer ’Präferenz’ (eine bevorzugte Verhaltenstendenz) nur etwas nützt, wenn sich alle Mitglieder einer Population daran orientieren wollen. Dies führt zur grundlegenden Frage, was denn eine Population von Robotern gemeinschaftlich als solch einen gemeinsamen ’Wert’ erkennen und akzeptieren soll. Wirklich befriedigende Antworten auf diese grundlegenden Fragen liegen noch nicht vor. Dies hat u.a. damit zu tun, dass die Robotersysteme, die hier untersucht werden, bislang noch zu unterschiedlich sind und dass es auch hier bislang – wie bei der KI-Forschung insgesamt – ein großes Theoriedefizit gibt in der Frage, innerhalb welches theoretischen Rahmens man diese unterschiedlichen Phänomene denn diskutieren soll.

Man kann aber den Ball dieser Forschung einmal aufgreifen und unabhängig von konkreten Realisierungsprozessen die Frage stellen, wie denn überhaupt ein ’Wert’ beschaffen sein müsste, damit eine ganze Population von Robotern sich ’von sich aus’ darauf einlassen würde. Letztlich müsste auch ein Roboter entweder eine ’eingebaute Tendenz’ haben, die ihn dazu drängt, ein bestimmtes Verhalten einem anderen vor zu ziehen, oder aber es müsste eine ’nicht eingebaute Tendenz’ geben, die im Rahmen seiner ’internen Verarbeitungsprozesse’ neue Verhalten identifizieren würde, die ihm im Sinne dieser ’Tendenz’ ’wichtiger’ erscheinen würde als alles andere. Es ist bislang nicht erkennbar, wo eine ’nicht eingebaute Tendenz’ für eine Verhaltensauswahl herkommen könnte. Ein industrieller Hersteller mag zwar solche Werte aufgrund seiner Interessenlage erkennen können, die er dann einem Roboter ’zu verstehen geben würde’, aber dann wäre die Quelle für solch eine ’Initiierung einer Verhaltenstendenz’ ein Mensch.

In der aktuellen Forschungssituation ist von daher als einzige Quelle für nicht angeborene Verhaltenstendenzen bislang nur der Mensch bekannt. Über welche Werte im Falle von sogenannten künstlichen Super-Intelligenzen diese verfügen würden ist noch unklar. Dass künstliche Super-Intelligenzen von sich aus Menschen grundsätzlich ’gut’ und ’erhaltenswert’ finden werden, ist in keiner Weise abzusehen. Die künstlichen Superintelligenzen müssten sich in Wertefragen – wenn überhaupt – eher am Menschen orientieren. Da die bisherige Geschichte der Menschheit zeigt, dass der Mensch selbst zu allen Zeiten eine starke Neigung hat, andere Menschen zu unterdrücken, zu quälen, und zu töten, würde dies für alle Menschen, die nicht über künstliche Superintelligenzen verfügen, tendenziell sehr gefährlich sein. Ihr ’Opferstatus’ wäre eine sehr große Versuchung für die jeweilige technologische Macht.

III. WER SIND WIR MENSCHEN?

Wenn Menschen sich in der KI wie in einem Spiegelbetrachten, dann kann dies für den betrachtenden Menschen viele Fragen aufwerfen. Zunächst erfinden die Menschen mit dem Computer einen Typ von intelligenter Maschine, die zunehmend den Eindruck erweckt, dass sich die Menschen in solchen Maschinen vervielfältigen (und möglicherweise noch übertreffen) können. Dann benutzen sie diese Computer dazu, die Strukturen des menschlichen Körpers immer tiefer zu erforschen, bis hin zu den Zellen und dort bis in die Tiefen der molekularen Strukturen, um z.B. unsere Gene zu erforschen, unser Erbmaterial, und zwar so weitgehend, dass wir dieses Erbmaterial gezielt verändern können. Die Menschen verstehen zwar noch nicht in vollem Umfang die möglichen Wirkungen der verschiedenen Änderungen, aber es ist möglich, real Änderungen vorzunehmen, um auszuprobieren, ’was dann passiert’? Mit Hilfe des Computers beginnt der Mensch, seinen eigenen Bauplan, sein eigenes genetisches Programm, umzubauen.

Dazu kommt, dass die Menschen seit dem19.Jahrhundert mit der modernen Biologiewissen können, dass die vielfältigen Formen des biologischen Lebens zu einem bestimmten Zeitpunkt immer das Ergebnis von langen vorausgehenden Entwicklungsprozessen sind. Das Wachsen und Sterben von Organismen gründet jeweils in einer befruchteten Zelle, für die durch das Erbmaterial festgelegt ist, wie sie sich weiter vermehrt und wie sich Millionen, Milliarden und gar Billionen von Zellen zu komplexen Formen zusammen finden. Und bei der Vervielfältigung von Zellen können Änderungen, Abweichungen vom ursprünglichen Plan auftreten, die über viele Tausende  und Millionen von Jahren zu deutlichen Änderungen im Bau und Verhalten eines Organismus führen können. Die Biologen sprechen von ’Evolution’. Eine Erkenntnis aus diesem Evolutionsprozess war (und ist), dass wir Menschen, so, wie wir heute da sind, auch solche evolutionär gewordene biologische Strukturen sind, die Vorläufer hatten, die mit uns heutigen Menschen immer weniger zu tun hatten, je weiter wir in der Zeit zurückgehen. Wer sind wir also?

Die Frage, ob Computer als intelligente Maschinen genau so gut wie Menschen werden können, oder gar noch besser, läuft auf die Frage hinaus, ob der Mensch Eigenschaften besitzt, die sich generell nicht durch einen Computer realisieren lassen.

Die moderne Psychologie und die modernen Neurowissenschaften haben bislang nichts zutage fördern können, was sich einem ingenieurmäßigen Nachbau entziehen könnte. Auch wenn es sich hierbei nicht um einen ’strengen Beweise’ handelt, so kann dieser Anschein einer generellen ’maschinelle Reproduzierbarkeit’ des Menschen in Gestalt von intelligenten Maschinen das bisherige Selbstverständnis von uns Menschen stark verunsichern.

IV. GLAUBEN AN GOTT

A. In allen Himmelsrichtungen

Aus der Geschichte der letzten Jahrtausende wissen wir, dass es zu allen Zeiten und in allen Kulturen Religionen gegeben hat. Die größten sind wohl (bis heute) der Hinduismus, der Buddhismus, das Judentum mit dem Christentum, und der Islam. So verschieden diese zu verschiedenen Zeiten und in verschiedenen Regionen äußerlich erscheinen mögen, sie verbindet alle das tiefe Fühlen und Glauben von Menschen an einen über-persönlichen Sinn, der Glaube an ein höheres Wesen, das zwar unterschiedliche Namen hat (’Gott’, ’Deus’, ’Theos’, ’Jahwe’, ’Allah’ …), aber – möglicherweise – vielleicht nur ein einziges ist.

B. Jüdisch-Christlich

So verschieden die christlichen Bekenntnisse der Gegenwart auch sein mögen, was die Anfänge angeht beziehen sich noch immer alle auf die Bibel, und hier, für die Anfänge der Geschichte auf das Alte Testament.(Anmerkung: Für eine deutsche Übersetzung siehe die Katholisch-Evangelische Einheitsübersetzung [BB81]).

Wie uns die modernen Bibelwissenschaften lehren, blickt der Text des Alten Testaments auf eine vielfältige Entstehungsgeschichte zurück. (Anmerkung: Für eine Einführung siehe Zenger et.al (1998) [ZO98]). Nicht nur, dass der Übergang von der mündlichen zur schriftlichen Überlieferung sich im Zeitraum von ca. -700 bis ca.+200 abgespielt hat, auch die redaktionelle Erzeugung verweist auf sehr viele unterschiedliche Traditionen, die nebeneinander existiert und die zu unterschiedlichen Varianten geführt haben. Auch die Kanonbildung dauerte dann nochmals viele hundert Jahre mit dem Ergebnis, dass es schwer ist, von dem einen Urtext zu sprechen. Für jene Menschen, die vorzugsweise Halt an etwas Konkretem, Festen suchen, mag dieses Bild der Überlieferung der Texte des alten Testaments beunruhigend wirken. Wird hier nicht vieles relativiert? Kann man denn da noch von einem ’Wort Gottes an die Menschen’ sprechen? Diese Furcht ist unbegründet, im Gegenteil.

C. Neues Weltbild

Wenn wir Menschen heute lernen (dürfen!), wie unsere individuelle, konkrete Existenz eingebettet ist in einen geradezu atemberaubenden Prozess der Entstehung der bekannten Lebensformen über viele Milliarden Jahre, wie unser eigener Körper ein unfassbares Gesamtkunstwerk von ca. 37 Billionen (10^12 !) Körperzellen in Kooperation mit ca. 100 Bio Bakterien im Körper und ca. 220 Mrd. Zellen auf der Haut  ist, die in jedem Moment auf vielfältige Weise miteinander reden, um uns die bekannten Funktionen des Körpers zur Verfügung zu stellen, dann deutet unsere reale Existenz aus sich heraus hin auf größere Zusammenhänge, in denen wir vorkommen, durch die wir sind, was wir sind. Und zugleich ist es die Erfahrung einer Dynamik, die das Ganze des biologischen Lebens auf der Erde in einem ebenfalls sich entwickelnden Universum umfasst und antreibt. Wenn wir verstehen wollen, wer wir sind, dann müssen wir diesen ganzen Prozess verstehen lernen.

Wenn wir uns dies alles vor Augen halten, dann können uns die Texte des alten Testaments sehr nahe kommen. Denn diese Texte manifestieren durch ihre Vielfalt und ihre Entstehungsgeschichte über viele Jahrhunderte genau auch diese Dynamik, die das Leben auszeichnet.

D. Schöpfungsberichte

Claus Westermann, ein evangelischer Theologe und Pfarrer, leider schon verstorben, hat uns einen Kommentar zum Buch Genesis hinterlassen und eine Interpretation der beiden biblischen Schöpfungsberichte, der jedem, der will, aufzeigen kann, wie nah diese alten Texte uns heute noch sein können, vielleicht viel näher als je zuvor. (Anmerkung: Neben seinen beiden wissenschaftlichen Kommentaren aus den Jahren 1972 und 1975 hat er schon 1971 ein kleines Büchlein geschrieben, in dem er seine Forschungsergebnisse in einer wunderbar lesbaren Form zusammengefasst hat (siehe: [Wes76]).

Der erste der beiden Schöpfungstexte in Gen 1,1-2,4a ist der jüngere der beiden; seine Entstehung wird auf die Zeit 6.-5.Jh vor Christus angesetzt, der zweite Schöpfungstext in Gen 2,4b – 24 wird mit seiner Entstehung im 10.-9.Jh vor Christus verortet. Der jüngere wird einer Überlieferungsschicht zugeordnet, die als ’Priesterschrift’ bezeichnet wird, die einen großen Bogen spannt von der Entstehung der Welt mit vielen Stationen bis hin zu einem neuen Bund zwischen Menschen und Gott. Dieser erste Schöpfungsbericht, bekannt durch sein 7-Tage-Schema, steht im Übergang von sehr, sehr vielen Traditionen mythischer Berichte über Schöpfung in den umliegenden Kulturen, Traditionen, die selbst viele Jahrhunderte an Entstehungszeit vorweisen können. Von daher wundert es nicht, wenn sich einzelne Worte, Motive, Bilder, die auch im 7-Tage-Schema auftauchen, Parallelen haben in anderen Schöpfungsgeschichten. Interessant ist das, was die biblische Schöpfungsgeschichte der Priesterschrift anders macht als die anderen bekannten Geschichten es tun.

E. Menschen als Ebenbild

Die zentrale Aussage im neueren Schöpfungsbericht ist nicht, wie im älteren Text, wie Gott den Menschen geschaffen hat, sondern die Aussage, dass er den Menschen nach seinem Bilde geschaffen hat, und dass er dem Menschen eine Verantwortung übertragen hat. In der schon zu dieser Zeit bekannten Vielgestaltigkeit der Welt, ihrer vielen Werdeprozesse, war die zentrale Einsicht und damit verbunden der Glaube, dass der Mensch als ganzer (nicht eine einzelne Gruppe, kein bestimmter Stamm, kein bestimmtes Volk!) über die konkrete, reale Existenz hinausweisend mit Gott verbunden ist als seinem Schöpfer, der auch ansonsten alles geschaffen hat: die Gestirne sind keine Götter, wie in vielen anderen älteren Mythen. Die Menschen sind nicht dazu da, niedere Arbeiten für Gott zu machen, wie in anderen Mythen. Die Menschen werden vielmehr gesehen als in einem besonderen Status im Gesamt der Existenz in der Geschichte, mit einer Verantwortung für das Ganze.

Und diese besondere Stellung des Menschen wird nicht festgemacht an besonderen körperlichen und geistigen Eigenschaften; schon zu dieser Zeit wussten die Autoren der Priesterschrift, wie vielfältig die Lebensformen, ja der konkrete Mensch, sein kann. Wenn wir heute durch die Wissenschaften lernen können, wie der Mensch sich im größeren Ganzen eines biologischen Werdens einsortieren lässt, wie der Mensch selbst durch seine Kultur, seine Technologie in der Lage und bereit ist, sich selbst in allen Bereichen– einschließlich seines biologischen Körpers – zu verändern, dann steht dies in keiner Weise im Gegensatz zu der globalen Sicht des biblischen Schöpfungsberichts. Im Gegenteil, man kann das Gefühl bekommen, das sich in unserer Gegenwart die Weite des biblischen Texte mit den neuen Weiten der Erkenntnisse über Mensch und Universum neu begegnen können. Was allerdings heute auffällig ist, wie viele Menschen sich schwer tun, in diesen neuen primär wissenschaftlichen Weltsichten den Glauben an einen Gott, einen Schöpfer, an eine Geschichtsübergreifende Beziehung zu einem Schöpfer aufrecht zu erhalten. Ist dies heute nicht mehr möglich?

F. Frömmigkeit – Spiritualität

An dieser Stelle sollte man sich vergegenwärtigen, dass zu allen Zeiten die Menschen in ihrer Religiosität nie nur ’gedacht’ haben, nie nur ’mit Bildern’ der Welt oder Gottes umgegangen sind. Zu allen Zeiten gab es – und gibt es noch heute – auch das, was man ’Frömmigkeit’ nennt, ’Spiritualität’, jenes sehr persönliche, individuelle sich einem Gott gegenüber ’innerlich Vorfinden‘, ’Ausrichten’, ’Fühlen’, ’Erleben’. Es ist nicht leicht, dafür die richtigen Worte zu finden, da es nun einmal ’innere’ Prozesse sind, die sich nicht wie Gegenstände vorweisen lassen können.   Sie betreffen das grundsätzliche Erleben eines Menschen, ein inneres Suchen, ein Erfahren, ein Erfülltsein (oder auch Leersein), das, was viele Menschen ermöglicht, ihr Leben in einer anderen, neuen Weise zu gestalten, sich zu ändern, anders mit Gefahren und Leiden umzugehen. In den Bildern des Alltags ’mehr’ sehen zu können als ohne dieses innere Erleben, Gestimmt sein.

In einer interessanten Untersuchung hat der britische Philosoph Walter Terence Stace die spirituellen Zeugnisse von vielen Jahrtausenden in unterschiedlichen Kulturen philosophisch untersucht (vgl. [Sta60]). Er kommt zu dem Ergebnis, dass sich trotz aller Verschiedenheiten im Äußeren, auch bei bestimmten Interpretationen, im Kern des Erlebens, des Wahrnehmens, sofern man dieses überhaupt von möglichen Interpretationen trennen lässt, erstaunliche Übereinstimmungen erkennen kann. Er folgert daraus, dass diese Fähigkeit von Menschen, einen übergreifenden Sinn direkt, existentiell erfahren zu können, möglicherweise auf eine sehr grundsätzliche Eigenschaft aller Menschen verweist, die wir einfach haben, weil wir Menschen sind. (Anmerkung: Er schließt auch nicht aus, dass alles Lebendige, von dem wir Menschen ja nur ein Teil sind, an dieser grundsätzlichen Fähigkeit einen Anteil haben könnte, wenn auch möglicherweise verschieden von der Art, wie wir Menschen erleben können.)

Die Tiefe und Weite der Sicht des jüngeren Schöpfungsberichts im Buch Genesis würde einem solchen grundlegenden Sachverhalt gut entsprechen: das Bild vom Menschen als Ebenbild Gottes schließt eine besondere Verbundenheit nicht aus; das ist das, was nach Westermann dem Menschen seine besondere Würde verleiht, diese Beziehung, nicht sein aktuelles konkretes So-sein, das sich ändern kann, ist die zentrale Botschaft.

G. Mensch, KI, Glaube an Gott

Damit beginnt sich der Kreis zu schließen. Wenn die Besonderheit des Menschen, seine zeitübergreifende Würde, in dieser grundlegenden Beziehung zu einem Schöpfergott gründet, die sich vielfältig im Gesamt des Universums und Lebens manifestiert, speziell auch in einer Form von individueller Spiritualität, dann gewinnt die Frage nach der Zukunft von Mensch und intelligenten Maschinen noch eine neue Nuance.

Bislang wird von den Vertretern einer Zukunft ohne Menschen nur noch mit intelligenten Maschinen einseitig abgehoben auf die größere Rechenkraft und die größeren Speicher, die alles erklären sollen. In diesem Beitrag wurde darauf hingewiesen, dass selbst die einfachsten Formen des Lernens ohne ’Werte’ im Sinne von ’Präferenzen’, von ’Bevorzugung von Handlungsalternativen’, ins Leere laufen. Sogenannte ’angeborene’ Präferenzen (oder eingebaute) können nur einen sehr begrenzten Nutzen vermitteln, da sich die Handlungsgegebenheiten und die gesamte Welt beständig weiter verändern. Auch die teilweise sehr komplexen Wertfindungen im sozialen-kulturellen Kontext ganzer Populationen, die von den künstlichen Intelligenzen dieser Welt noch nicht mal ansatzweise beherrscht werden, sind nur von begrenztem Wert, wie die bisherige Kulturgeschichte der Menschen eindrücklich belegt. [Mai95]

Vor diesem Hintergrund ist aktuell nicht zu sehen, wie intelligente Maschinen in der Zukunft alleine zu irgendwelchen brauchbaren Präferenzen kommen können. [SB98][Mer17][Nil10][NS76][RN10][Sta60][Tur37] Ungeklärt ist aktuell allerdings, ob und wieweit der Mensch – also jeder von uns – im Wechselspiel von philosophisch-empirischer Welterkenntnis und Spiritualität jene großen Richtungen ermitteln kann, die für die kommende komplexe Zukunft gefordert wird?

Sollte die Existenz eines Schöpfergottes über Welterkenntnis und Spiritualität wichtig sein für ein weiteres erfolgreiches Fortschreiten, dann hätten intelligente Maschinen möglicherweise ein grundsätzliches Problem. Es sei denn, auch sie könnten Gott erfahren? Einfacher wäre es, wenn Mensch und Maschine ihre aktuelle Koexistenz zu einer intensiveren Symbiose ausbauen würden. Dies würde viele sehr spannende Perspektiven bieten. Der Glaube an einen Schöpfergott ist auch heute, nach allem, was wir jetzt wissen können, keineswegs unsinnig;er erweist sich sogar – rein rational – als scheinbar dringend notwendig. Andererseits ist ein lebendiger Glaube kein Automatismus, sondern erfordert von jedem Menschen sein sehr persönliches Engagement in Verbundenheit mit dem ganzen Leben in einem dynamischen Universum. Gott erscheint hier nicht als das Hindernis, eher unsere Verweigerungen, das Ganze anzuschauen und zu akzeptieren.

QUELLEN

[*] G.Doeben-Henisch, Künstliche Intelligenz und der Glaube an Gott, In: Brennpunkt Gemeinde 70 (Aug./Sept. 2017), Studienbrief R21, 14 S., Hg. AMD Arbeitsgemeinschaft Missionarische Dienste im Verbund der Diakonie, Neukirchener Verlagsgesellschaft mbH, 47497 Neukirchen-Vluyn

[AJL + 15] B. Alberts, A. Johnson, J. Lewis, D. Morgan, M. Raff,
K. Roberts, and P. Walter. Molecular Biology of the Cell.
Garland Science, Taylor & Francis Group, LLC, Abington
(UK) – New York, 6 edition, 2015.
[BB81] Katholisches Bibelwerk and Deutsche Bibelgesellschaft. Die
Heilige Schrift. Einheitsübersetzung. Verlag Katholisches
Bibelwerk & Deutsche Bibelgesellschaft, Stuttgart, 1 edition, 1981.
[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies.
Oxford University Press, Oxford (UK), 1 edition, 2014.
[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien
– New York, 1 edition, 1983.
[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler
and Friedrich Kittler, editors, Alan M. Turing. Intelligence
Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mai95] Klaus Mainzer. Computer – Neue Flügel des Geistes? Die
Evolution computergestützter Technik, Wissenschaft, Kultur
und Philosophie. Walter de Gruyter, Berlin – New York, 1th edition, 1995.
[Mer17] Kathrin Merrick. Value systems for developmental cognitive
robotics: A survey. Cognitive Systems Research, 41:38–55, 2017.
[Nil10] Nils J. Nilsson, editor. The Quest for Artificial Intelligence. A
History of Idesas and Achievements. Cambridge University
Press, New York, 2010.
[NS76] Allen Newell and Herbert A. Simon. Computer science as
empirical inquiry: Symbols and search. Communications of
the ACM, 19(3):113–126, 1976.
[RN10] Stuart J. Russell and Peter Norvig. Artificial Intelligence: A
Modern Approach. Prentice Hall, Inc., Upper Saddle River, 2010.
[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement
Learning. An Introduction. The MIT Press, Ambridge (MA) –
London, 1 edition, 1998.
[Sta60]W.T. Stace. Mysticism and Philosophy. Jeremy P.Tarcher,
Inc., Los Angeles, 1 edition, 1960. (Eine Diskussion hier im Blog findet sich HIER).
[Tur37] Alan M. Turing. Corrections to: On computable numbers, with
an application to the entscheidungsproblem. Proceedings of
the London Mathematical Society, 43:544–546, 1937.
[Tur50] Alan Turing. Computing machinery and intelligence. Mind,
59:433–460, 1950.
[Tur 7] Alan M. Turing. On computable numbers, with an application
to the entscheidungsproblem. Proceedings of the London
Mathematical Society, 42(2):230–265, 1936-7.
[Wes76] Claus Westermann. Schöpfung. Kreuz-Verlag, Stuttgart –
Berlin, 2 edition, 1976.
[ZO98] Erich Zenger and Others. Einleitung in das Alte Testament.
W.Kohlhammer, Stuttgart, 3rd edition, 1998

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

EIN HOMO SAPIENS – VIELE BILDER. Welches ist wahr?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 28.Okt. 2017
info@cognitiveagent.org
URL: cognitiveagent.org
Autor: cagent
Email: cagent@cognitiveagent.org

Beitrag als PDF

INHALT

I Vielfalt trotz Einheit
II Wahrheit, die ich meine
III Wahrheitsmechanismen
III-A Gegenwart, Gestern, Morgen . . . . . .
III-B Eigener Lebensraum, ganz woanders . .
III-C Interpretierte Wahrnehmung . . . . . . .
III-D Erfahrung liefert Bilder . . . . . . . . . .
III-E Wie das ’Richtige’ Lernen? . . . . . . . .
III-E 1 Mengenbegrenzungen . . . . .
III-E 2 Muster erkennen . . . . . . . .
III-E 3 Spezialisierungen . . . . . . .
III-E 4 Wechselwirkungen aufdecken
III-E 5 Geeignete Wissensformen . .
III-E 6 Verloren im Fragment . . . . .
III-E 7 Fehlende Präferenzen
IV Menschenbilder
V Was Tun?

ÜBERSICHT

In der realen Welt gibt es eine Lebensform, die wir homo sapiens nennen. In der Rede über diesen homo sapiens – also in den Bildern, die wir benutzen –benutzen wir aber viele verschiedene Bilder. Desgleichen in den alltäglichen Lebensformen: es gibt nur einen homo sapiens, aber in den verschiedenen Kulturen dieser Erde gibt es viele geradezu konträre Formen, wie Menschen leben oder leben müssen. Wie ein homo sapiens genau funktioniert, verstehen wir immer noch nicht genau. Die Politik bevorzugt in der Regel plakative Schlagworte, und vermeidet wissenschaftliche Modelle. Warum?

Vielfalt trotz Einheit

Wenn in einem Brettspiel jemand sagt, „ich habe gewonnen“, und ein anderer daraufhin sagt „Nein, ich habe gewonnen“, dann weiß jeder, dass da etwas nicht stimmen kann. Brettspiele sind aufgrund ihrer Regeln eindeutig, wenn nicht, würden sie nicht funktionieren.

Wenn wir uns aber die Realität anschauen, die gemeinsam geteilte empirische Welt, dann ist es mittlerweile fast der Normalfall, dass es zu einzelnen Aspekten, Vorkommnissen, Vorgängen, von verschiedenen Personen oder Personengruppen, ganz unterschiedliche Beschreibungen/ Darstellungen/ Bilder gibt, ohne dass wir dies merkwürdig finden. Wenn Politiker in Talkshows sich äußern sollen, ist es eher die Regel, dass sie konträre Meinungen vertreten. Keiner findet dies merkwürdig. Unrecht haben immer die anderen, die eine andere Meinung haben. Der Frage, warum es zu unterschiedlichen Meinungen zu ein und demselben Thema kommen kann, wird fast nie gestellt. Lieber beschimpft man sich gegenseitig, anstatt die Frage zu stellen, warum es zu unterschiedlichen Meinungen kommen kann.

Wahrheit, die ich meine

Eine klassische Auffassung von Wahrheit geht davon aus, dass das mit ‚Wahrheit‘ Gemeinte in der Übereinstimmung von eigener Auffassung und einem davon zu unterscheidenden Sachverhalt ist. Klassisches Beispiel: Jemand sagt „Es regnet“ und in der Redesituation regnet es tatsächlich oder nicht. Im ersten Fall würde man dem Sprecher zustimmen und sagen, er spricht ‚wahr‘, im anderen Fall nicht.

Schwieriger wird es, wenn der Redner über Sachverhalte spricht, die jenseits der aktuellen Redesituation liegen: räumlich entfernt, oder zeitlich weit zurück in der Vergangenheit oder in einer noch nicht stattgefundenen Zukunft. Welche Mechanismen der Klärung des Wahrheitsgehaltes gibt es dann?

Oder der Redner glaubt Sachverhalte wahrzunehmen, die aber alle anderen nicht wahrnehmen. Wer hat dann Recht? Irrt der eine, hat er eine ‚psychische Störung‘, steht er unter ‚Drogeneinfluss‘, hat er schlicht ein ‚falsches Wissen‘, oder … ? Könnten nicht alle anderen irren und er alleine hätte Recht?

Oder es gibt Sachverhalte, auch gegenwärtige, deren Status von bestimmtem ‚Wissen‘ abhängig ist, wodurch erst die ‚Eigenschaften des Sachverhalts‘ sichtbar werden. Berühmte Beispiele sind die Bewegung der Himmelskörper, das Phänomen von Magnetismus und Elektrizität, die chemischen Reaktionen der verschiedenen chemischen Substanzen, die Entdeckung der Mikroorganismen, die Entdeckung der Vererbung durch Mitwirkung der DNA, die Entdeckung der Gehirnzellen und die Tatsache, dass sie nicht miteinander direkt verbunden sind, usw.

Schon diese kurze Betrachtung zeigt, dass wir in unserem Alltag eher mehr Situationen haben, die eine ‚direkte Wahrheitsentscheidung‘ nicht zulassen als solche, die es tun. ‚Indirekte‘ Wahrheitsentscheidungen verlangen grundsätzlich eine ‚Klärung der Umstände‘ und eine ‚Klärung der Regeln der Interpretation‘.

Wahrheitsmechanismen

Gegenwart, Gestern, Morgen

Halten wir an der Fallunterscheidung fest, dass es Aussagen über Vergangenes, Zukünftiges oder Gegenwärtiges gibt.

Eigener Lebensraum, ganz woanders

In allen drei Fällen kann man nochmals unterscheiden, ob der Sachverhalt (gegenwärtig oder vergangen oder zukünftig) mit den Teilnehmern der Situation verknüpft ist oder nicht. Ob es da regnet, wo man gerade ist, oder woanders, das macht einen großen Unterschied. Oder ob in meiner Firma in der Vergangenheit ein bestimmtes Ereignis stattgefunden haben soll oder nicht, kann ich eher einschätzen, als wenn es in der Vergangenheit irgendwo ganz anders stattgefunden haben soll. Entsprechend in der Zukunft: eine Aussage über einen zukünftigen Sachverhalt in meinem persönlichen Lebensraum fasse ich anders auf als wenn es ‚irgendwo ganz anders‘ stattfinden soll.

Interpretierte Wahrnehmung

Befinden wir uns in der Gegenwart, dann können wir diese und eigene Körperzustände ‚wahrnehmen‘. Wie wir mittlerweile durch vielfältige wissenschaftliche Untersuchungen lernen konnten, nehmen wir aber niemals die Welt (und uns selbst) ‚1-zu-1‘ wahr, sondern vielfältig selektiert, abstrahiert und ‚interpretiert‘ durch die Erfahrungen, die wir vorher schon gemacht haben. Da die visuellen, akustischen, taktilen usw. Wahrnehmungen immer unvollständig sind, muss innerhalb des Wahrnehmungsprozesses kontinuierlich ‚interpretiert‘ werden. Wir sind ‚erfahrungsbasiert‘, und diese Erfahrungen sind sehr stark ’sprachlich durchtränkt‘. Wir sehen nicht einfach nur Farben, Formen; wir riechen nicht einfach nur süßlich, beizend, ätzend, usw.; wir hören nicht einfach nur Geräusche, Klänge; diese werden sofort eingeordnet in vertraute Muster, verknüpft mit bekannten Worten. Ein Geräusch identifizieren wir als ‚knarrende Schranktür‘, ‚vorbeifahrendes Auto‘, das ‚Klackern von Schuhen auf Steinplatten‘, usw., weil wir einfach ‚trainiert‘ wurden, diese Geräusche mit solchen Worten und darüber mit bestimmten Situationen zu verknüpfen. Wie wir wissen, können solche spontanen, von unserem Gehirn aufgrund von vorliegenden Erfahrungen ‚automatisch erzeugte‘ Zuordnungen falsch sein, weil die Erfahrungen falsch sind.

Erfahrung liefert Bilder

Im Alltag liefert unsere Erfahrung also die ‚Bilder‘, mit denen wir unsere Welt anschauen.

Solange jemand noch nichts von einer bestimmten genetischen Erkrankung wusste, war für ihn die Welt in Ordnung. Als er/ sie erfuhr, dass es solch eine spezielle Krankheit gibt und dass er Symptome dafür aufweist, war die Welt plötzlich eine ganz andere.

Solange jemand nicht wusste, wie ein bestimmtes Pflanzenschutzmittel wirkt, hat er es leichthändig eingesetzt. Sobald bekannt wurde, dass es die Böden und Pflanzen nachhaltig vergiftet, ein ganzes Ökosystem zum Kippen bringen kann, sogar über die Nahrung in den menschlichen Körper gelangen kann und dort zu schweren Störungen führt, da war die Welt plötzlich eine andere.

Solange man noch nicht wusste, dass der Nachbar und Freund ein Spitzel für den Staat war, mit dem Ziel andere Meinungen auszuspähen und zu melden, solange war die Welt noch in Ordnung. Aber als man durch Zufall entdeckte, dass da etwas nicht stimmt, wollte man es zunächst nicht glauben, man wehrte sich dagegen, bis es dann irgendwann klar war…

Die Bilder, die wir haben, erklären uns die Welt für uns. Andere können ganz andere Bilder haben.

Wie das ‚Richtige‘ Lernen?

Wenn unsere Erfahrungen einen solchen massiven Einfluss auf unsere Weltsicht haben, stellt sich die Frage, was wir denn tun können, um im Rahmen unseres ‚Erlernens von Welt‘ die ‚richtige‘ Sicht zu bekommen?

Mengenbegrenzungen

Wie wir heute wissen können, ist unsere aktuelle Wahrnehmung von Welt zudem mengenmäßig sehr begrenzt. Wir können im Sekundenbereich nie mehr als ca. 5-7 Wahrnehmungsobjekte (Englisch ‚chunks‘) verarbeiten. Je nach Erfahrungsstand können dies einfache oder sehr komplexe Objekte sein.

Muster erkennen

Ein Schachgroßmeister sieht auf einem Schachbrett nicht einzelne Figuren, sondern er sieht die Figuren als Teil eines ‚Musters‘, das er in ’strategische Zusammenhänge‘ einordnen kann. So genügt ihm ein kurzer Blick und er hat eine Einschätzung des ganzen Spielstandes und weiß sofort, wo es günstig wäre, in dieser Stellung anzusetzen. Ein weniger erfahrene Spieler sieht dies Muster und diese Zusammenhänge nicht auf einen Blick. Daher muss er mühsam alle möglichen Kombinationen ‚durchdenken‘, ‚geistig durchspielen‘, um zu Einschätzungen zu kommen. Der Amateur benötigt dafür viel mehr ‚Bedenkzeit‘. In einem offiziellen Schachturnier würde de Amateur daher normalerweise allein schon durch seinen Verbrauch an Denkzeit verlieren, wenn er nicht schon vorher aufgrund der Stellung verliert.

Das, was hier am Schachspiel verdeutlicht wurde, gilt für alle Situationen: wir können immer nur sehr wenige Aspekte einer Situation tatsächlich wahrnehmen und verarbeiten. Wenn nun die Situation komplex ist, das heißt, ganz viele einzelne Elemente auf vielfältige Weise ineinander greifen, und dadurch bestimmte Zustände erzeugen, dann können wir diese Situation nicht wirklich verstehen, es sei denn, wir würden sehr viel Zeit aufwenden, um sie zu erforschen. Im Alltag haben wir diese Zeit normalerweise nicht.

Spezialisierungen

Andererseits leben wir täglich in einer Welt, die bis zum Rand angefüllt ist mit komplexen Sachverhalten: die Infrastruktur einer Stadt mit Energieversorgung, Wasserversorgung, Abfallwirtschaft, Verkehr, Schulen, …; die Wohnungssituation; die wirtschaftliche Entwicklung einer Region; das Funktionieren großer Konzerne; die jeweiligen Ökosysteme, in denen wir uns bewegen; die demographische Entwicklung und ihre Konsequenzen; usw.

Teilweise helfen wir uns durch Spezialisierungen: es gibt Verkehrsfachleute, Demographen, Betriebswirte, Abfallexperten, Managementberater, Biologen,… doch diese sind einzelne; selten arbeiten sie — wenn überhaupt — alle zusammen, um ein Problem in seinen Wechselwirkungen zu verstehen, Zusammenhänge sichtbar zu machen.

Wechselwirkungen aufdecken

Die eine Frage ist also, ob wir überhaupt genügend brauchbare Daten von den verschiedenen Prozessen unseres Alltags haben bzw. bekommen; die andere Frage ist, wie wir diese Daten so ‚aufbereiten‘, dass die ‚Wechselwirkungen‘ sichtbar werden, d.h. warum der eine Faktor den anderen Faktor beeinflusst und in welchem Ausmaß.

Geeignete Wissensformen

Die Wissenschaftsphilosophie hat erarbeitet, wie solche erklärenden Datenstrukturen aussehen müssten, damit sie Erklärungen liefern könnten. Die verschiedenen computerbasierten Simulationstechniken lassen erkennen, wie man solche komplexen Datenstrukturen so aufbereiten könnte, dass jeder damit arbeiten kann. Im Alltag findet man solche Instrumente aber nicht. Tägliche Entscheidungen müssen ohne solche Hilfen getroffen werden.

Wenn man die Lernformen in den Schulen und Hochschulen anschaut, dann gibt es nahezu nichts, was ein komplexes ‚Lernen von der Welt‘ unterstützen könnte.

Verloren im Fragment

Als Ergebnis dieser schwierigen Situation muss jeder Mensch mit mehr oder weniger kleinen bzw. großen Fragmenten eines großen Ganzen leben, die es nicht zulassen, das große Ganze zu erkennen. Notgedrungen versucht jeder auf seine Weise, ad hoc, unverstandene Reste mit Hilfskonstruktionen ‚verständlich‘ zu machen. Und ja, wenn jetzt ein anderer Mensch mit anderen Fragmenten auftritt, was tut man dann? Freut man sich, aus der Verschiedenheit zu lernen (eine echte Chance) oder fühlt man sich verunsichert, fühlt man sich angegriffen, sieht im anderen einen ‚Gegner‘, einen ‚Feind‘, der die eigene Meinung bedroht?

Wenn Menschen, und dies dürften die meisten sein, im Berufsleben eingespannt sind, dazu Familie, soziale Verpflichtungen, dann ist es sehr häufig so, dass dieses Leben so anfordernd ist, dass Zeit und Muße sich mit der komplexen Welt zu beschäftigen, mit anderen Anschauungen, kaum vorhanden ist. Ganz ’natürlich‘ wird man vieles abblocken, wird man einen ‚Tunnelblick‘ ‚kultivieren‘, wird ‚Seinesgleichen‘ suchen, sich einrichten, sich abschotten, und wenn es zum Schwur kommt, wird man genau nur das wiederholen können, was man bislang kennen gelernt hat. Wer und was kann hier helfen?

Fehlende Präferenzen

Bei der ‚Aneignung von Welt‘, die unter starken quantitativen Begrenzungen stattfinden muss, und die aufgrund von bisherigen Erfahrungen eine starke Beeinflussung aufweist, spielt noch ein weiterer Faktor hinein: Bewertungen, Präferenzen.

Das eine ist, Objekte, Eigenschaften, Beziehungen, Abfolgen zu identifizieren. Schwer genug. Ein einzelner Handelnder braucht aber auch Präferenzen der Art, dass er im Fall von Alternativen bewerten kann, ob nun A oder B für ihn besser sind. Soll er A oder B tun?

Wenn man weiß, dass viele Leistungen ein mehrjähriges gezieltes Training voraus setzen, durch das ein entsprechendes Wissen, eine entsprechende Handlungsfähigkeit schrittweise erarbeitet worden ist, das dann nach vielen Jahren so verfügbar ist, dann setzt dies voraus, dass es solche ’situationsübergreifende Ziele‘ gibt, die das einzelne Verhalten auf dieses Ziel in ‚orientieren‘.

Wenn solche Ziele aber schwer zu erkennen sind, wenn sie schlichtweg fehlen, wie kann dann ein einzelner, eine Gruppe, eine Firma ihre Ressourcen gezielt auf ein Ziel hin optimieren?

Präferenzen hängen stark von verfügbarem Wissen ab, aber sie sind nicht identisch mit Wissen! Aus der Tatsache, dass ich weiß, wie man einen Computer baut, folgt nicht, dass ich weiß, wofür man ihn einsetzen sollte. Aus der Tatsache, dass man Schulen mit Computern ausstatten will, folgt nicht, dass die Schulen, die Lehrer, die Schüler wissen, wofür sie die Computer einsetzen wollen/ sollen/ können.

Es scheint bis heute eher unklar, wo Präferenzen herkommen sollen.

Im Alltag gibt es viele sogenannte ‚praktische Zwänge‘ (Ernährung, Wohnen, Geld verdienen, Gesundheit, Verkehr, …), die zum Handeln zwingen. Dies sind aber weitgehend unhinterfragte Automatismen, die selbst in einen größeren Zusammenhang einzuordnen wären. Übergreifende Ziele, welche?

Menschenbilder

Schaut man sich die verfügbaren Menschenbilder im Bereich der Wissenschaften an, so kann man die wichtigsten Typen wie folgt auflisten:

  • Die biologische Evolution, unterscheidbar nach homo sapiens und Nicht-homo sapiens.
  • Im Bereich des homo sapiens sein Verhalten (Ethologie, Psychologie, Soziologie, Politik, Wirtschaft…)
  • Im Kontext des Verhaltens des homo sapiens gibt es die unterstellten inneren Mechanismen, die dafür verantwortlich sind, wie der homo sapiens auf seine wahrnehmbare Umgebung reagiert, zusammengefasst im Begriff des Verhaltens bzw. der Verhaltensfunktion. Das ‚Sichtbare (Verhalten)‘ erscheint damit als Wirkung des ‚Unsichtbaren (Inneren)‘. Für diese inneren Zustände gibt es keine wirkliche wissenschaftliche Disziplin, da Bewusstseinszustände als solche kein Gegenstand einer empirischen Wissenschaft sein können. Traditionell ist hier die Philosophie zuständig, die eben nicht als empirische Disziplin gilt. Die Neurowissenschaften behandeln die physikalisch-chemische Maschinerie des Gehirns, nicht aber seine subjektiven Erlebnisse im Bewusstseinsraum.
  • Im Bereich des Verhaltens hat der Mensch Technologien hervorgebracht, die ihm helfen können, praktische Probleme des Alltags (dazu gehören auch Konflikte bis hin zu Großkonflikten (Krieg)) zu lösen. Das Ineinander von Mensch und Maschine lässt ständig neue Situationen entstehen, in denen sich der Mensch über ein verändertes Verhalten selbst neu erfahren kann (Ersetzung menschlicher Muskelkraft, Autos, Eisenbahn, Flugzeug, Raumschiff..).
  • Im Rahmen der Technologie nehmen die Digitalen Technologien eine Sonderstellung ein. Sie erlauben es zunehmend, die inneren Mechanismen des Menschen zu imitieren und in immer mehr Bereichen zu übertreffen. Dies stellt eine extrem starke Infragestellung des Menschen dar: ist er auch nur eine Maschine, dazu eine schlechte?
  • Neben dem Biologischen gibt es das Physikalische als allgemeinen Rahmen für alles Biologische, mit unfassbar weiten Räumen und Energien, die sich als Universum präsentieren.
  • Innerhalb des Biologischen sind die inneren Mechanismen des homo sapiens wissenschaftlich noch unaufgeklärt. Dies gibt viel Spielraum für Spekulationen, Esoterik und dem Phänomen des Religiösen. Es ist schwer zu entscheiden,welch ‚harten Kern‘ all diese Interpretationen haben.

Macht man sich diese Vielfalt klar, ihren weitgehenden Fragmentcharakter aufgrund fehlender Wissensintegration, dann wundert man sich nicht, dass Ideologien, Populismen, Fanatismen und Dogmatismen reichlich Nährboden finden können. Die öffentlichen Wissenskulturen sind nicht ausreichend genug kultiviert, um solchen Verzerrungen den Boden zu entziehen. Die Bedeutung einer Wissenskultur wird in fast allen Gesellschaften stark unterschätzt und die jeweiligen Politiker erweisen sich für diese Fragen auch nicht besonders hilfreich.

Was Tun?

Es ist eines, einen Sachverhalt zu diagnostizieren. Es ist eine ganz andere Frage, ob man aus solch einer Diagnose irgendeinen Handlungsvorschlag generieren kann, der eine deutliche Verbesserung mit sich bringen würde.

Angesichts der zentralen Bedeutung des Wissens für das Verhalten des Menschen eingebettet in Präferenz/ Bewertungsstrukturen, die in einem Lernprozess verfügbar sein müssen, bei gleichzeitiger Berücksichtigung der quantitativen Beschränkungen des biologischen Systems bräuchte es neue Lernräume, die solch ein verbessertes Lernen unterstützen. Ganz wichtig wäre es dabei, das Wissen nicht nur ‚jenseits des Individuums‘ zu kumulieren (die Cloud für alle und alles), sondern den einzelnen als einzelnen zu stärken, auch als soziales Wesen. Dazu braucht es eine grundlegende Re-Analyse dessen, wie der Mensch mittels neuer digitaler und Cyber-Technologien sowie Humantechnologie seinen Möglichkeitsraum vergrößern kann.

Dies wiederum setzt voraus, dass es eine Vision von Gesellschaft der Zukunft gibt, in der der homo sapiens überhaupt noch eine Rolle spielt. Dies wird gerade von elitären Machtgruppen immer mehr in Frage gestellt.

Wo gibt es ernsthafte Visionen für humane Gesellschaften für Morgen?

Diese Aufgabenstellung ist nichts für einen allein; hier sind alle, jeder auf seine Weise, gefragt.

Autor cagent arbeitet an konkreten Lösungen einmal über das weltweite Theoriebuch für Ingenieurezum anderen an dem komplementären Projekt eines Softwarelabors für die Entwicklung solcher Lokaler Lernwelten. Ja, man kann sogar sagen, dass das Kunstprojekt Philosophy-in-Concert hier auch hingehört. Aber, wie auch immer, ein einzelner kann die Aufgabe nicht lösen. Es braucht ein ‚Gesamtkunstwerk‘, in dem sich viele miteinander vernetzen und ergänzen.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

WAHRHEIT CONTRA WAHRHEIT. Notiz

PDF

Worum es geht

Im Zeitalter von Fake News (manche sprechen schon vom postfaktischen Zeitalter ) scheint der Begriff der Wahrheit abhanden gekommen zu sein. Dies trifft aber nicht zu. Die folgenden Zeilen kann man als Fortsetzung des vorausgehenden Beitrags lesen.

I. ARBEITSDEFINITION VON WAHRHEIT

1) In dem vorausgehenden Beitrag wurde angenommen, dass Wahrheit zunächst einmal die Gesamtheit des Wissens, der Erfahrungen und der Emotionen ist, die einer einzelnen Person zum aktuellen Zeitpunkt zur Verfügung steht. Was immer geschrieben, gedacht, gesagt usw. wird, jeder einzelne versteht und handelt auf
der Basis dessen, was er zu diesem Zeitpunkt in sich angesammelt hat.

2) Eine zentrale Einsicht ist dabei, dass unser Gehirn die aktuellen sensorischen Daten – externe wie interne– sofort, und automatisch, mit dem abgleicht, was bisher zu diesem Zeitpunkt im Gedächtnis verfügbar ist. Dadurch erleben wir alles, was uns begegnet, im Lichte des bislang Bekannten. Unsere Wahrnehmung ist eine unausweichlich interpretierte Wahrnehmung.

3) Ein Beispiel: Wenn jemand gefragt wird, ’ist dies dein Kugelschreiber?’, und dieser jemand antwortet mit ’Ja’, dann nimmt er einen Gegenstand wahr (als Ereignis seines Bewusstseins) und dieser jemand stellt zugleich fest, dass sein Gedächtnis in ihm eine Konzept aktiviert hat, bezogen auf das er diesen Gegenstand als seinen Kugelschreiber interpretieren kann. Für diesen jemand ist Wahrheit dann die Übereinstimmung zwischen (i) einer Wahrnehmung als einem Ereignis ’Kugelschreiber’ in seinem Bewusstsein, (ii) einem zugleich aktivierten Konstrukt aus dem Gedächtnis  ’mein Kugelschreiber’, sowie (iii) der Fähigkeit, erkennen zu können, dass das Wahrnehmungsereignis ’Kugelschreiber’ eine mögliche Instanz des Erinnerungsereignisses ’mein Kugelschreiber’ ist. Das Erinnerungsereignis ’mein Kugelschreiber’ repräsentiert (iv) zudem den Bedeutungsanteil des sprachlichen Ausdrucks ’dein Kugelschreiber’. Letzteres setzt voraus, dass der Frager und der Antwortende (v) beide die gleiche Sprache  gelernt haben und der Ausdruck ’dein Kugelschreiber’ aus Sicht des Fragenden und ’mein Kugelschreiber’ aus Sicht des Antwortenden von beiden (vi) in gleicher Weise interpretiert wird.

4) Anzumerken ist hier, dass jene Ereignisse, die ihm Bewusstsein als Wahrnehmungen aufschlagen können, unterschiedlich leicht zwischen zwei Teilnehmern des Gesprächs identifiziert werden können. Einmal können Aussagen über die empirische Welt sehr viele komplizierte Zusammenhänge implizieren, die nicht sofort erkennbar sind (wie funktioniert ein Fernseher, ein Computer, ein Smartphone…), zum anderen kann es
sein, dass die beiden Gesprächsteilnehmer die benutzte Sprache sehr unterschiedlich gelernt haben können (Fachausdrücke, spezielle Redewendungen, Art der Bedeutungszuschreibung, usw). Obwohl der Sachverhalt vielleicht im Prinzip erklärbar wäre, kann es sein, dass beide Gesprächsteilnehmer im Moment des Gesprächs
damit überfordert sind.

5) Ferner kann man sich durch dieses Beispiel nochmals deutlich machen, dass die Bezeichnung der Gesamtheit des Wissens, der Erfahrung und der Emotionen eines Menschen zu einem bestimmten Zeitpunkt als der subjektiven Wahrheit dieses Menschen ihren Sinn darin besitzt, dass dieser Mensch in dem Moment, wo er gefragt wird, ob es sich SO verhält, nur dann ’Ja’ sagen wird, wenn der gefragte Mensch in seiner subjektiven Wahrheit Elemente findet, die diesem So-sein entsprechen. Das ’So-sein’ aus der Frage muss ein Bestandteil der subjektiven Wahrheit sein und nur dann kann ein Mensch auf eine Anfrage hin sagen, ja, das wahrgenommene So-sein findet in der subjektiven Wahrheit eine Entsprechung. Die Fähigkeit zur Wahrheit erscheint somit primär in der subjektiven Wahrheit eines Menschen begründet zu sein.

II. WAHRHEIT UND LEBENSFORM

1) Ergänzend zu diesem geschilderten grundsätzlichem Zusammenhang wissen wir, dass die subjektive Wahrheit nicht unabhängig ist von dem Lebensprozess des jeweiligen Menschen. Alles, was ein Mensch erlebt, was auf ihn einwirkt, kann in diesem Menschen als Ereignis erlebbar werden, kann ihn beeinflussen, kann ihn
verändern. Dazu gehört natürlich auch das eigene Tun. Wenn jemand durch den Wald läuft und merkt, dass er laufen kann, wie sich das Laufen anfühlt, wie sich dies langfristig auf seinen Körperzustand auswirkt, dann beeinflusst dies auch das individuelle Erkennen von Welt und von sich selbst, als jemand, der laufen und
Fühlen kann. Wenn stattdessen Kinder in Kobaldminen arbeiten müssen statt zu lernen,  sich vielfältig neu entdecken zu können, dann wird diesen Kinder mit der Vorenthaltung einer Lebenspraxis zugleich ihr Inneres zerstört; es kann nur ein verzerrter Aufbau von Persönlichkeit stattfinden. Wir schwärmen derweil von den angeblich umweltfreundlichen Elektroautos, die wir fahren sollen. Oder: wenn Kinder im Dauerhagel von Granaten und Bomben aufwachsen müssen, um sich herum Verwundete und Tote erleben müssen, dann werden sie sich selbst entfremdet, weil verschiedene Machthaber ihre Macht in Stellvertreterkriegen meinen, ausagieren zu müssen.

2) Aufgrund der so unendlich verschiedenen Lebensprozesse auf dieser Erde können sich in den Menschen, die von ihrer Natur aus weitgehend strukturgleich sind,  ganz unterschiedliche subjektive Wahrheiten ansammeln. Derselbe Mensch sieht dann die Welt anders, handelt anders, fühlt anders. Es ist dann nahezu unausweichlich, dass sich bei der Begegnung von zwei Menschen zwei verschiedene Wahrheiten begegnen. Je nachdem, wie ähnlich oder unähnlich die Lebensprozesse dieser Menschen sind, sind auch die subjektiven Wahrheiten eher ähnlich oder unähnlich.

3) Wie man beobachten kann, tendieren Menschen dazu, sich vorzugsweise mit solchen Menschen zu treffen, mit ihnen zu reden, mit ihnen zusammen etwas tun, die mit ihnen bezüglich ihrer subjektiven Wahrheiten möglichst ähnlich sind. Manche meinen, solche selbstbezügliche Gruppen (’Echokammer’, ’Filterblase’) auch
im Internet, in den sozialen Netzwerken entdecken zu können. Obwohl das Internet im Prinzip die ganze Welt zugänglich macht [Anmerkung: Allerdings nicht in Ländern, in denen der Zugang zum Internet kontrolliert wird, wie z.B. massiv in China.], treffen sich Menschen vorzugsweise mit denen, die sie kennen, und mit denen sie eine ähnliche Meinung teilen. Man muss aber dazu gar nicht ins Internet schauen. Auch im Alltag kann man beobachten, dass jeder einzelne Mitglied unterschiedlicher sozialer Gruppen ist, in denen er sich wohl fühlt, weil man dort zu bestimmten Themen eine gleiche Anschauung vorfindet. An meiner Hochschule, an der Studierende aus mehr als 100 Ländern vertreten sind, kann man beobachten, dass die Studierenden
vorzugsweise unter sich bleiben statt die Vielfalt zu nutzen. Und die vielfältigen Beziehungskonflikte, die sich zwischen Nachbarn, Freunden, Lebenspartnern, Mitarbeitern usw. finden, sind ein eindrucksvolles Beispiel dafür, wie real  unterschiedlich subjektive Wahrheiten im Alltag sind. [Anmerkung: Allerdings ist diese Aufsplitterung in viele kleine Gruppen von ‚Gleichgesinnten‘ nicht notwendigerweise nur negativ; die Kultivierung von Vielfalt braucht eine natürliche Umgebung, in der Vielfalt möglich ist und geschätzt wird.]

4) Obwohl also der Mechanismus der subjektiven Wahrheitsbildung grob betrachtet einfach erscheint, hat man den Eindruck, dass wir Menschen uns dieses Sachverhaltes im Alltag nicht  wirklich bewusst sind. Wie schnell fühlt sich jemand beleidigt, verletzt, oder gar angegriffen, nur weil jemand sich anders verhält, als man es im Lichte seiner subjektiven Wahrheit erwartet. Wie schnell neigen wir dazu, uns von anderen abzugrenzen, sie abzustempeln als krank, verrückt, oder böse zu erklären, nur weil sie anders sind als wir selbst.

III. GEDANKE UND REALE WELT

1) Bis hierher konnte man den Eindruck gewinnen, als ob die subjektive Wahrheit ein rein gedankliches, theoretisches Etwas ist, das sich allerdings im Handeln bemerkbar machen kann. Doch schon durch die Erwähnung des Lebensprozesses, innerhalb dessen sich die subjektive Wahrheit bildet, konnte man ahnen, dass die konkreten Umstände ein wichtiges Moment an der subjektiven Wahrheit spielen. Dies bedeutet z.B., dass wir die Welt nicht nur in einer bestimmten Weise sehen, sondern wir verhalten uns ganz konkret in dieser Welt aufgrund unserer subjektiven Wahrheit (= Weltsicht), wir leben unseren Alltag mit ganz konkreten Objekten, Besitztümern und Gewohnheiten. Eine andere subjektive Wahrheit (bzw. Weltsicht) ist daher in der
Regel nicht nur ein bloßer abstrakter Gedanke, sondern kann zugleich reale, konkrete Veränderungen des eigenen Alltags implizieren. Da aber schrecken wir alle (verständlicherweise?) sofort zurück, blitzartig, vielleicht sogar unbewusst. Über die Wahrheit reden mag grundsätzlich chic sein, aber wenn die zur Sprache kommenden
Wahrheit anders ist als die eigene Wahrheit, dann zucken wir zurück. Dann wird es unheimlich, ungemütlich; dann können allerlei Ängste aufsteigen: was ist das für eine Welt, die anders wäre als die Welt, die wir kennen? Der verinnerlichten Welt korrespondiert immer auch eine reale Alltagswelt. [Anmerkung: In diesen Kontext passt vielleicht das paradoxe Beispiel, das Jesus von Nazareth in den Mund gelegt wird mit dem Bild, dass eher ein Kamel durch ein Nadelöhr gehen würde, als dass ein Reicher in den Himmel gelangen könnte. Eine Deutung wäre, dass jemand der als Reicher
(unterstellt: auf Kosten anderer) in einer Wirklichkeitsblase lebt, die angenehm ist, und er als Reicher wenig Motive hat, dies zu ändern. Allerdings, was man gerne
übersieht, ein solches Verhaftetsein mit der aktuellen Situation, die als angenehm gilt, gilt in vielen Abstufungen für jeden Menschen. In den Apartheitsgefängnissen von Südafrika (heute als Museum zu besichtigen) gab es z.B. unter den Gefangenen eine klare Hierarchie: die Bosse, die Helfer der Bosse, und der Rest. Kein Boss wäre auf die Idee gekommen, seine relativen Vorteile zu Gunsten von allen aufzugeben.]

2) In der Struktur der gesellschaftliche Wirklichkeit kann man den Mechanismus der parzellierten Wahrheiten wiederfinden. Eine Gesellschaft ist mit unzähligen Rollen durchsetzt, mit Ämtern, Amtsbezeichnungen, Institutionen usw.. Dazu kommen in vielen Ländern Abgrenzungen von unterschiedlichen ethnischen Gruppen. Weiter gibt es Nationalstaaten, die ihre eigenen Wahrheiten pflegen. Die Tendenz, das Andere, die Anderen negativ zu belegen, um seinen eigenen Status dadurch indirekt zu sichern, findet sich zwischenstaatlich auch wieder. [Anmerkung: Gut zu erkennen in dem Erstarken von nationalistisch-populistischen Doktrinen in leider immer mehr Ländern der Erde.] Eine unkritische Ausübung gewachsener partieller Wahrheiten kann Unterschiede dann nur zementieren oder gar vergrößern, anstatt sie zu überbrücken und zu allgemeineren Wahrheitsbegriffen zu kommen.

IV. EINE KULTUR DER WAHRHEIT?

1) Wenn man sieht wie unglaublich stark die Tendenz unter uns Menschen ist, aktuelle, partielle Wahrheiten (die aus Sicht des einzelnen nicht partiell, sondern universell sind) mit einer bestimmten Alltagspraxis zu verknüpfen und diese fest zu schreiben, dann könnte man auf die Idee kommen, zu fragen, was wir als Menschen tun können, um dieser starken Tendenz ein natürliches Gegengewicht gegenüber zu stellen, das
dem Trieb zu partiellen Wahrheit entgegenwirken könnte.

2) Innerhalb der Rechtsgeschichte kann man beobachten, wie im Laufe von Jahrtausenden das Recht des Angeklagten häppchenweise soweit gestärkt wurde, dass es in modernen Staaten mit einem funktionieren Rechtssystem üblich geworden ist, jemanden erst dann tatsächlich zu verurteilen, nachdem in nachvollziehbaren, transparenten Verfahren die Schuld bzw. Unschuld objektiv festgestellt worden ist. Dennoch kann man sehen, dass gerade in der Gegenwart in vielen Staaten wieder eine umgekehrte Entwicklung um sich greift: der methodische Respekt vor der Gefahr partieller Wahrheiten wird einfachüber Bord geworfen und Menschen werden allein aufgrund ihrer Andersheit und eines blinden Verdachts vorverurteilt, gefoltert, und
aus ihren gesellschaftlichen Stellungen verjagt.

3) Innerhalb der Welt der Ideen gab es eine ähnliche Entwicklung wie im Rechtssystem: mit dem Aufkommen der empirischen experimentellen Wissenschaften in Kooperation mit Mathematischen Strukturen konnte das Reden über Sachverhalte, über mögliche Entstehungsprozesse und über mögliche Entwicklungen auf ganz neue Weise transparent gemacht werden, nachvollziehbar, überprüfbar, wiederholbar, unabhängig von dem Fühlen und Meinen eines einzelnen [Anmerkung: Allerdings nicht ganz!].  Diese Art von Wissenschaft kann großartige Erfolge aufweisen, ohne die das heutige
Leben gar nicht vorstellbar wäre. Doch auch hier können wir heute beobachten, wie selbst in den Ländern mit einem entwickelten Wissenschaftssystem die wissenschaftlichen Prinzipien zunehmen kurzfristigen politischen
und ökonomischen Interessen geopfert werden, die jeweils auf den partiellen Wahrheiten der Akteure beruhen.

4) Es drängt sich dann die Frage auf, ob der Zustand der vielen (partiellen) Wahrheiten generell vermeidbar wäre bzw. wie man ihn konstruktiv nutzen könnte, um auf der Basis der partiellen Wahrheiten zu einer umfassenderen weniger partiellen Wahrheit zu kommen.

5) Eine beliebte Lösungsstrategie ist ein autoritär-diktatorisches Gesellschaftssystem, das überhaupt nur noch eine partielle Wahrheit zulässt. Dies kennen wir aus der Geschichte und leider auch aus der Gegenwart: Gleichschaltung von Presse, Medien; Zensur; nur noch eine Meinung zählt.

6) Die Alternative ist die berühmte offene Gesellschaft, in der eine Vielfalt von partiellen Wahrheiten möglich ist, verbunden mit dem Vertrauen, dass die Vielfalt zu entsprechend vielen neuen erweiterten partiellen Wahrheiten führen kann (nicht muss!). Hier gibt es – im Idealfall – eine Fülle unterschiedlicher Medien und keine Zensur. Entsprechend wären auch alle Lern- und Erziehungsprozesse nicht an einem Drill, einer
autoritären Abrichtung der Kinder und Jugendlichen orientiert, sondern an offenen, kreativen Lernprozessen, mit viel Austausch, mit vielen Experimenten.

7) Allerdings kann man beobachten kann, dass viele Menschen nicht von vornherein solche offenen, kreativen Lernprozesse gut finden oder unterstützen, weil sie viel anstrengender sind als einfach einer autoritären Vorgabe zu folgen. Und es ist ein historisches Faktum, dass partielle Wahrheitsmodelle bei geeigneter Propaganda und gesellschaftlichen Druck eine große Anhängerschaft finden können.  Dies war und ist eine große Versuchung für alle narzisstischen und machtorientierte Menschen. Das scheinbar Einfachere und Bequemere wird damit sprichwörtlich zum ’highway to hell’.

8) Für eine offene Gesellschaft als natürlicher Entwicklungsumgebung für das Entstehen immer allgemeinerer Wahrheiten sowohl in den Beteiligten wie auch im Alltag scheinen von daher geeignete Bildungsprozesse sowie freie, unzensierte Medien (dazu gehört heute auch das Internet) eine grundlegende Voraussetzung zu
sein. Die Verfügbarkeit solcher Prozesse und Medien kann zwar keine bessere gedachte und gelebte Wahrheit garantieren, sie sind allerdings notwendige Voraussetzungen, für eine umfassendere Kultur der Wahrheit. [Anmerkung: Natürlich braucht es noch mehr Elemente, um einen einigermaßen freien Raum für möglicheübergreifende Wahrheiten zu ermöglichen.]

9) Vor diesem Hintergrund ist die weltweit zu beobachtende Erosion von freien Medien und einer offenen, kreativen Bildung ein deutliches Alarmsignal, das wir Menschen offensichtlich dabei sind, den Weg in ein wahrheitsfähige Zukunft immer mehr zu blockieren. Letztlich blockieren wir uns als Menschen damit nur selbst. Allerdings,
aus der kritischen Beobachtung alleine folgen keine wirkenden konkreten Verbesserungen. Ohne eine bessere Vision von Wahrheit ist auch kein alternatives Handeln möglich. Deswegen versuchen ja autoritäre Regierungen immer, zu zensieren und mit Propaganda und Fake-News die Öffentlichkeit zu verwirren.

V. KONTEXTE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

KÜNSTLICHE INTELLIGENZ – Newell und Simon 1976

PDF

IDEE

Im Jahr 2017 nimmt die Erwähnung von sogenannter Künstlicher Intelligenz außerhalb der Wissenschaften, im öffentlichen Bereich, fast inflatorisch zu. Zugleich muss man feststellen, dass Erklärungen des Begriffs ‚Künstliche Intelligenz‘ wie auch anderer Begriffe in seinem Umfeld Mangelware sind. Es wird daher ab jetzt mehr Blogeinträge geben, die auf diese Thematik gezielter eingehen werden. Hier ein erster Beitrag mit Erinnerung an einen wichtigen Artikel von Newell and Simon 1976.

I. INFORMATIK ALS EMPIRISCHE WISSENSCHAFT

Informatik als empirische Disziplin (nach Newell und Simon, 1976)

Informatik als empirische Disziplin (nach Newell und Simon, 1976)

Im Jahr 1975 empfingen Allen Newell und Herbert A.Simon den angesehenen ACM Turing Preis von der ACM aufgrund ihrer vielen wichtigen Beiträge zur Künstlichen Intelligenzforschung in den vorausgehenden Jahren. Die Preisrede beider Autoren wurde in den Communications of the ACM 1976 abgedruckt (siehe: NewellSimon:1976).

In dieser Rede wagen die Autoren eine generelle Sicht auf die Informatik (‚computer science‘), die Akzente erkennen lässt, die von heutigen Auffassungen von Informatik — zumindest wie sie in Deutschland üblich sind — doch deutlich abweicht.

Für die beiden Autoren ist die Informatik eine empirische Wissenschaft, deren Interesse darin besteht, das Verhalten von Menschen, dort, wo es Intelligenz erkennen lässt, in ein theoretisches Modell zu übersetzen, das sich dann als eine konkrete Maschine (ein Computer, ein Roboter) physikalisch realisieren lässt. Man kann dann diese konkrete Maschine dazu benutzen, Tests durchzuführen, durch die man überprüfen kann, ob sich die gebaute Maschine hinreichend ähnlich wie ein Mensch verhält oder aber davon deutlich abweicht. Liegen Abweichungen vor, dann muss man den Sachverhalt weiter ergründen und versuchen, ob man das theoretische Modell verbessern kann.

Für sie erscheint der Mensch als eine Art Standardmodell für Intelligenz, allerdings nicht so, dass man den Begriff ‚Intelligenz‘ mit einer einzigen Verhaltensweise oder mit einem einzigen Prinzip identifizieren könnte. Das vielfältige menschliche Verhalten verweist nach den Autoren vielmehr auf eine Vielzahl von Komponenten, deren Zusammenwirken zu einem als ‚intelligent‘ wirkenden Verhalten führt. Für das Erkennen einer möglichen ‚Intelligenz‘ ist es ferner wichtig, dass man den ganzen Kontext berücksichtigt, in dem spezifische Aufgaben vorliegen, die gelöst werden sollten.

Durch ihre Forschungsarbeiten zu symbolischen Systemen und zur heuristischen Suche haben Newell und Simon herausgefunden, dass die Klärung eines Problemraumes nur dann besser als zufällig sein kann, wenn der Problemraum minimale Regelhaftigkeiten, eine minimale Ordnung aufweist, die — sofern sie erkannt wurde — dann in Form spezieller Informationen angesammelt werden kann und dann, nach Bedarf, bei der Klärung des Problemraumes genutzt werden kann. Und es ist genau diese spezifische angesammelte Information die die Autoren mit Intelligenz gleichsetzen! Ein Mensch kann nur dann gezielter, schneller eine Aufgabe lösen, wenn er über spezielle Informationen (Wissen) verfügt, die ihn in die Lage versetzen, genau jene Verhaltensweisen zu zeigen, die schnell und effizient zum Ziel führen.

Überträgt man dies auf die theoretischen Modelle der Informatik, dann muss man Wege finden, spezifisches Bereichswissen (engl.: ‚domain knowledge‘) für ein intelligentes Verhalten in geeignete Datenstrukturen und Prozesse zu übersetzen. Auf die vielen Beispiele und Details zu diesen Überlegungen wird hier verzichtet [diese kann jeder in dem Artikel nachlesen ….].

II. DISKURS

Hier einige Überlegungen im Anschluss an den Artikel von Newell und Simon.

A. Intelligenz

Zunächst ist interessant, dass die Verwendung des Begriffs ‚Intelligenz‘ gebunden wird an das Verhalten von Menschen, wodurch der Mensch als undiskutierter Maßstab für mögliche Intelligenz gesetzt wird.

Daraus folgt nicht notwendigerweise, dass es jenseits des Menschen keine andere Formen von Intelligenz gibt, sondern nur, dass man den Typ von Intelligenz, der beim Menschen vorliegt und sichtbar wird, vorläufig als Standard benutzen möchte. Also eine Intelligenz mit Index: Intelligenz_human.

Das macht auch verständlich, dass man als wichtige empirische Wissenschaft in Begleitung der Informatik die kognitive Psychologie sieht, die sich u.a. auch mit der sogenannten ‚Informationsverarbeitung im Menschen‘ beschäftigt.

Es wundert dann allerdings, dass die Autoren den im Rahmen der Psychologie eingeführten Begriff des Intelligenz-Quotienten (IQ) samt den dazugehörigen erprobten Messverfahren nicht benutzen, nicht einmal erwähnen. Dies würde die Möglichkeit eröffnen, die Verhaltensleistung von technischen Systemen entsprechend zu messen und direkt mit Menschen zu vergleichen. Der oft zitierte Turing-Test (nicht von den beiden Autoren) ist verglichen mit den Testbatterien des IQ-Quotienten mehr als dürftig und nahezu unbrauchbar.

Durch den Verzicht auf die sehr detailliert ausgearbeiteten Testbatterien der Psychologie bleibt die Charakterisierung des Begriffs ‚Intelligenz‘ in der Informatik weitgehend vage, fast beliebig.

An dieser Stelle könnte man einwenden, dass in der Informatik andere Aufgabenstellungen untersucht werden als in der Psychologie üblich bzw. andere Aufgabenstellung, die Menschen in dieser Weise nicht angehen, dadurch wir die Verwendung des Begriffs ‚Intelligenz‘ aber noch undurchsichtiger, geradezu ominös.

Obgleich Newell und Simon betonen, dass sie die Informatik als eine empirische Theorie sehen, bleibt der ganze Komplex des tatsächlichen objektiven Messens etwas vage. Zum objektiven Messen gehören zuvor vereinbarte Standards, die beim Messen als Referenzen benutzt werden, um ein Zielobjekt zu ‚vermessen‘. Wenn das zu messende Zielobjekt ein Verhalten sein soll (nämlich das Verhalten von Maschinen), dann muss zuvor sehr klar definiert sein, was denn das Referenz-Verhalten von Menschen ist, das in einem (welchen?) Sinn als ‚intelligent‘ angesehen wird und das dazu benutzt wird, um das Maschinenverhalten damit zu vergleichen. Es ist weder bei Newell und Simon klar zu sehen, wie sie ihr Referenzverhalten von Menschen zuvor klar definiert haben, noch sind die Messprozeduren klar.

Der grundsätzliche Ansatz von Newell und Simon mit der Informatik als empirischer Disziplin (zumindest für den Bereich ‚Intelligenz) erscheint auch heute noch interessant. Allerdings ist das begriffliche Chaos im Kontext der Verwendung des Begriffs ‚Intelligenz‘ heute zu einem notorischen Dauerzustand geworden, der es in der Regel unmöglich macht, den Begriff von ‚künstlicher Intelligenz‘ in einem wissenschaftlichen Sinne zu benutzen. Jeder benutzt ihn heute gerade mal, wie es ihm passt, ohne dass man sich noch die Mühe macht, diese Verwendung irgendwie transparent zu machen.

B. Lernen

Während Newell und Simon im Fall des Begriffs ‚Intelligenz‘ zumindest ansatzweise versuchen, zu erklären, was sie damit meinen, steht es um den Begriff ‚Lernen‘ ganz schlecht.

Explizit kommt der Begriff ‚Lernen‘ bei den Autoren nicht vor, nur indirekt. Dort wo heuristische Suchprozesse beschrieben werden, die mit Hilfe von symbolischen Systemen geleistet werden, stellen sie fest, dass man aufgrund ihrer empirischen Experimente wohl (in dem theoretischen Modell) annehmen muss, dass man Informationen speichern und verändern können muss, um zu jenem Wissen kommen zu können, das dann ein optimiertes = intelligentes Verhalten ermöglicht.

Aus psychologischen Lerntheorien wissen wir, dass ‚Intelligenz‘ und ‚Lernen‘ zwei unterschiedliche Eigenschaften eines Systems sind. Ein System kann wenig intelligent sein und doch lernfähig, und es kann sehr intelligent sein und doch nicht lernfähig.

Nimmt man die Charakterisierung von Newell und Simon für ‚Intelligenz‘ dann handelt es sich um ein ’spezielles Wissen‘ zum Aufgabenraum, der das System in die Lage versetzt, durch ein ‚gezieltes Verhalten‘ schneller ans Ziel zu kommen als durch rein zufälliges Verhalten. Eine solche Intelligenz kann einem System zur Verfügung stehen, auch ohne Lernen, z.B. (i) bei biologischen Systemen als eine genetisch vererbte Verhaltensstruktur; (ii) bei technischen Systemen durch eine volle Konfiguration durch Ingenieure. Bei biologischen Systeme tritt allerdings ‚Intelligenz‘ nie isoliert auf sondern immer in Nachbarschaft zu einer Lernfähigkeit, weil die dynamische Umwelt biologischer Systeme beständig neue Anpassungen verlangt, die nicht alle vorher gesehen werden können. Im Fall technischer Systeme mit begrenzter Lebensdauer und definiertem Einsatz war dies (und ist dies) weitgehend möglich.

Wenn man von ‚Künstlicher Intelligenz‘ spricht sollte man daher die beiden Strukturen ‚Intelligenz‘ und ‚Lernen‘ sehr klar auseinander halten. Die Fähigkeit, etwas zu lernen, erfordert völlig andere Eigenschaften als die Struktur eines Wissens, durch das ein System sich ‚intelligent‘ statt ‚zufällig‘ verhalten kann.

C. Theorie

Die Forderung von Newell und Simon, die Informatik als eine ‚empirische Wissenschaft‘ zu betrachten, die richtige theoretische Modelle (= Theorien) konstruiert und diese über realisierte Modelle dann empirisch überprüft, hat im Rahmen des allgemeinen Systems Engineerings auch heute noch einen möglichen Prozess-Rahmen, der alle diese Forderungen einlösen kann. Allerdings hat es sich in der Informatik eingebürgert, dass die Informatik einen Sonderweg kreiert hat, der unter der Überschrift Softwareengineering zwar Teilaspekte des generellen Systemsengineerings abbildet, aber eben nur Teilaspekte; außerdem ist durch die Beschränkung auf die Software ohne die Hardware ein wesentlicher Aspekt des Gesamtkonzepts Computer ausgeklammert. Ferner ist der harte Aspekt einer vollen empirischen Theorie durch die Phasenbildungen ‚logisches Design‘ nur unvollständig abgebildet. Designmodelle sind kein Ersatz für eine richtige Theorie. Für das sogenannte ‚modellgetriebene Entwickeln‘ gilt das Gleiche.

D. Mensch als Maßstab

War es noch für Newell und Simon offensichtlich klar, dass man für den Begriff ‚Intelligenz‘ den Menschen als Referenzmodell benutzt, so ist dies in der heutigen Informatik weitgehend abhanden gekommen. Dies hat einmal damit zu tun, dass der Wissenschaftsbegriff der Informatik samt der meisten Methoden bislang nicht in den allgemeinen, üblichen Wissenschaftsbegriff integriert ist, zum anderen dadurch, dass die Aufgaben, die die intelligenten Maschinen lösen sollen, aus allen möglichen ad-hoc Situationen ausgewählt werden, diese keinen systematischen Zusammenhang bilden, und man in den meisten Fällen gar nicht weiß, wie man den Bezug zum Menschen herstellen könnte. Dadurch entsteht der vage Eindruck, dass die ‚Intelligenz‘ der künstlichen Intelligenzforschung irgendwie etwas anderes ist als die menschliche Intelligenz, von der menschlichen Intelligenz möglicherweise sogar ganz unabhängig ist. Man macht sich allerdings nicht die Mühe, systematisch und zusammenhängend die Verwendung des Begriffs der ‚Intelligenz‘ in der Informatik zu klären. Aktuell hat man den Eindruck, dass jeder gerade mal das behauptet, was ihm gerade gefällt. Auch eine Art von Fake News. Die Marketingabteilungen der großen Konzerne freut es, weil sie nach Belieben alles Versprechen können, was sie wollen, ohne dass irgendjemand sinnvoll nachprüfen kann, was das genau ist, ob das überhaupt geht.

Doch sollte man sich durch diese terminologische Unklarheiten, die auf eine fehlende wissenschaftliche Methodik der Informatik zurück zu führen sind, nicht davon ablenken lassen, zu konstatieren, dass trotz chaotischer Begrifflichkeit im Konkreten und Im Detail seit Newell und Simon 1976 extreme Fortschritte gemacht wurden in speziellen Algorithmen und spezieller Hardware, mit der man heute viel mehr realisieren kann, als sich Newell und Simon damals hätten träumen lassen. Die Vorteile, die man sich durch diese Fortschritte im Konkreten erarbeitet hat, werden aber weitgehend verspielt durch große Theoriedefizite, die zu gerade kuriosen Anschauungen und kuriosen Forschungsprojekten führen. In der KI ist dies aber nichts Neues: es gab sehr unterschiedliche Phasen; alle Fehler führten irgendwann dann doch zu verbesserten Einsichten.

QUELLE

Allen Newell and Herbert A. Simon. Computer science as empirical inquiry: Symbols and search. Communications of the ACM, 19(3):113–126, 1976.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

PHILOSOPHISCHES DENKEN HEUTE – Zurück auf Start?

TREND ZU INSTITUTIONALISIEREN

  1. Es scheint eine allgemeine Tendenz menschlichen Handelns zu sein, aufregende Ideen und erfolgreiche Konzepte – allerdings nicht immer – zu institutionalisieren: aus einzelnen Menschen die überzeugen, aus einzelnen kleinen Unternehmungen, die Erfolg haben, werden Institutionen, große Firmen, Staatsgebilde.
  2. Wenn sie denn da sind, die Institutionen (Kirchen, Parteien, Gewerkschaften, Universitäten, politische Formen, Rechtssysteme, …), dann verselbständigen sich viele Mechanismen. Die treibende Idee kann verblassen, die Selbsterhaltungskräfte einer Institution gewinnen die Oberhand (im Falle von Geheimdiensten wenig Demokratie förderlich …).

WAS BEWEGT?

  1. Bei der Frage, was das Handeln von Menschen leitet, kann man angesichts der Realität von Institutionen verleitet sein, auf die soziale Realität dieser Institutionen zu starren und zu glauben, gegen diese sei nicht anzukommen, als einzelner.
  2. Die Geschichte – und die unruhige Gegenwart – kann uns aber darüber belehren, dass alle Institutionen nur so lange funktionieren, als die sie tragenden Menschen mit ihren subjektiven-inneren Leitbildern diese Institutionen stützen. Wenn sich die subjektiven-inneren Anschauungen ändern, zerfallen Institutionen.
  3. Dafür gibt es zahllose Beispiele. Der immer stärker werdende Lobbyismus unter Politikern, die fast schon dreiste Voranstellung persönlicher kurzfristiger Erfolgskriterien vor jeder gesellschaftlich tragenden Perspektive, die zunehmende Propaganda und Zensur in vielen Ländern dieser Erde, vereinfachende schwarz-weiß Modelle von Gesellschaft und Zukunft, sind einige der wirksamen Mittel, eine friedliche, kooperierende, zukunftsfähige Gesellschaft zu zerstören.

GEMEINSAMES WISSEN

  1. In solch einer Situation – die es in den letzten Jahrtausenden immer gab, immer wieder – stellt sich die Frage, wie kann das Wissen eines Menschen so mit anderen geteilt werden, dass aus diesem gemeinsamen Wissen auch ein gemeinsames Handeln erwachsen kann?

GRÜNDUNGSIDEEN

  1. Demokratische Parteien, die noch jung sind, die noch ein wenig das Gründungsfieber, die neue Vision in sich tragen, sind gute Lehrbeispiele dafür, wie Ideen sich im Alltag mühsam ihren Weg in die Köpfe möglicher Anhänger suchen müssen und dann, im Laufe der Jahre, sich behaupten müssen. Am Gründungstag weiß niemand, wer in der Zukunft dazukommen wird und was die nachfolgenden Generationen daraus machen werden.
  2. Ähnliches kann man bei Religionsgründern und bei Ordensgründungen beobachten: eine elektrisierende Anfangsidee bringt Menschen dazu, ihr Leben nachhaltig zu ändern und damit jeweils auch ein Stück Welt.
  3. Auch Firmengründungen laufen ähnlich ab: zu einem bestimmten Zeitpunkt hatte eine Idee einen wirtschaftliche Erfolg, und dieser führt zu einem Wachstum, der vorher nicht absehbar und nicht planbar war. Irgendwann gibt es ein Konglomerat aus Kapital und Macht, wo die Gründungsidee sich verdunstet hat, wo die Firma sich selbst fremd geworden ist. Manager sind angeheuerte Mietkräfte, die im System ihren persönlichen Vorteil suchen oder es gibt Anteilseigner, die wie kleine Monarchen ihrem Absolutismus zu frönen scheinen.
  4. Und so weiter, und so weiter…

ZEITLICHKEIT

  1. Die übergreifende Wahrheit ist, dass alle diese Gebilde Zeit behaftet sind: mit der Sterblichkeit ihrer Leitfiguren, mit der Veränderung der Gesellschaft und Technik und der Welt drum herum verändern sich Systeme und ihre Kontexte unaufhaltsam. Die Versuchung der totalen Kontrolle durch kleine Machtzirkel ist immer gegeben und ist immer auf Scheitern programmiert, ein Scheitern, dass vieles zerstört, viele in den Tod reist, … Jahrzehnte spielen keine Rolle; Jahrhunderte sind das minimale Zeitmaß für grundlegende Ideen und Änderungen. Die Geschichte ist hier ein unerbittliches Protokoll der Wahrheiten (was solche kurzfristigen Machtinszenierungen gerne verschweigen und fälschen).

WAHRE VISIONEN

  1. Parallel gab es immer auch die Vision einer Menschheit die lernt, die es schafft, gemeinsam Egoismus und Wahnsinn zu verhindern, Humanität allgegenwärtig zu machen, eine Vision der Zukunft zu entwickeln, in der alle vorkommen.
  2. Die historische Realität erzählt uns aber, dass bislang alle Visionen zu schwach waren. Reich – Arm, Gebildet – Ungebildet, Mächtig – machtlos sind Koordinaten eines Raumes, in dem die Wirklichkeit bis heute ungleich verteilt ist.
  3. Wahr ist aber auch, dass der Prozess des Lebens auf der Erde, wie immer er laufen wird, nur dann eine Richtung in eine gemeinsame, nachhaltige, friedliche Zukunft für alle nehmen kann, wenn es genügend Menschen gibt, die über eine Vision, über den Ansatz eines Bildes von solch einer gemeinsamen lebensfähigen Zukunft besitzen, die ihr Handeln gemeinsam leitet, eine Vision die ‚wahr‘ ist im Sinne, dass sie eine Welt beschreibt und schafft, die tatsächlich für alle das gibt, was sie suchen und brauchen.

GENEINSAME LERNPROZESSE

  1. Die Geschichte Europas vom antiken Griechenland bis in die Gegenwart ist ein Beispiel, an dem man studieren kann, wie eine ganze Epoche (das lateinische Mittelalter) durch ein gemeinsames Nachbuchstabieren vorausgehender Gedanken zu sich selbst und dann zu etwas ganz Neuem gefunden hat. In der Gegenwart kann man das Gefühl haben, dass das Neue wieder zu zerfallen droht, weil man immer mehr nur auf einzelne Teile schaut und nicht auf das Ganze.
  2. Ein Beispiel ist das wundersame Werk Wikipedia: eine solche Enzyklopädie (bei allen realen Schwächen) gab es noch nie zuvor in der Geschichte der Menschheit. Aber diese Enzyklopädie liefert nur unverbundene Einzelteile. Wo sind die Modelle, die die Zusammenhänge sichtbar machen? Wo sind die gemeinsam geteilten Modelle, die alle nachvollziehen können? Welche transparenten Mechanismen der Bewertung bräuchte man?
  3. Die Physiker, Chemiker, Biologen liefern ansatzweise Modelle für Teilbereiche. Das ist gut. Aber es sind nur sehr partielle Modelle und solche, die nur die Forscher selbst verstehen. Der Rest der Welt versteht nichts, ist außen vor, und trotz hochentwickelten Teilmodellen blühen Aberglauben, vereinfachende religiöse Überzeugungen, Esoterik und Ähnliches in einem Ausmaß, was (erschreckend) staunen lässt. … Und die Politik schafft wichtige Wissenschaften sogar wieder ab, weil die Politiker gar nicht verstehen, was die Forscher da machen (im Bereich Cyber- und Drohnenkrieg leider genau umgekehrt…).
  4. Die geistige Welt scheint also zu zerfallen, weil wir immer höhere Datengebirge erzeugen, und immer weniger interpretierende Modelle, die alle verstehen. (BigData liefert ‚Oberflächenmodelle‘ unter Voraussetzung, dessen, was ist, aber geht nicht tiefer, erklärt nichts, und vor allem, ist blind, wenn die Daten schon Schrott sind).
  5. Die Frage ist also, wie kann eine ganze Epoche aus der Zersplitterung in alte, schlechte, unverständliche Modelle der Welt zu etwas mehr gemeinsamer nachhaltiger Modellbildung kommen?

DAS GUTE UND WAHRE SIND EIN SELBSTZWECK

  1. Der einzige Grund für das ‚Gute‘ und ‚Wahre‘ ist das ‚Gute‘ und ‚Wahre‘ selbst. Die Alternativen erkennt man an ihren zerstörerischen Wirkungen (allerdings nicht immer sofort; Jahrzehnte sind die Sekunden von Kulturgeschichte, Generationen ihre Minuten, Jahrhunderte ihre Stunden ….).
  2. Der je größere Zusammenhang ist bei empirischer Betrachtung objektiv gegeben. Wieweit sind wir aber in der Lage, diese übergreifenden objektiven Zusammenhänge subjektiv zu fassen, so zu verinnerlichen, dass wir damit ‚im Einklang mit allem‘ positiv leben können?
  3. Die Geschichte sagt ganz klar, dass es nur gemeinsam geht. Wie wird aus vielen einzelnen eine geistige (rational begründete) und emotionale Gemeinschaft, die heute das tut, was auch morgen Sinn macht?
  4. Man kann ja mal die Frage stellen, warum (um einen winzigen Aspekt zu nennen), Schulen und Hochschulen es nicht als eine ihrer Hauptaufgaben ansehen, die Wikipedia der Fakten (Wikipedia Level 0) mit zu pflegen, um gleichzeitig damit zu beginnen, eine Wikipedia der Modelle (Wikipedia Level 1) aufzubauen?
  5. Philosophische Überlegungen, die ernsthaft anlässlich der realen Welt über diese reale Welt und ihre impliziten kognitiven Räume nachdenken wollen, könnten dann Level 0 + 1 als natürliche Referenzpunkte benutzen, um die kritische Reflexion über das Weltwissen weiter voran zu treiben.
  6. Ja gewiss, dies alles ist nur ein Fragment. Aber als einzelne sind wir alle fragmentiert. Leben ist die Kunst der Überwindung der Fragmente in höheren, lebensfähigen Einheiten ….

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DAS GANZE IN EINER NUSSSCHALE – In gewisser Weise ‚Ja‘

ANREGUNG VON PLATO & ARISTOTELES

  1. Im Kontext der Relektüre von Platon und Aristoteles, zunächst angeregt durch das Buch von Decher, dann vertiefend mit anderen Büchern, entstand immer mehr der Eindruck, dass das Ringen von Aristoteles um eine realistischere Sicht der Ganzheit des Lebens im Vergleich zu dem stark dualistisch-apriorisierenden Denken Platons, in seinem Kern, in den erkennbaren Strukturen, nicht so weit weg ist vom heutigen Denken. Natürlich muss man einige Begriffe neu übersetzen, natürlich muss man viele Details aktualisieren, aber die gesamte Ausrichtung gibt eine Fülle von Anregungen, die auch Lücken in unseren heutigen Ansätzen sichtbar machen. Die Meinungen gehen auseinander, ob Aristoteles auf der Zielgeraden letztlich dann doch Platons Sicht übernommen hat (Priorität und Andersartigkeit des Geistes über und vor allem anderen), oder ob man seine ähnlich klingenden Begriffe nicht doch von seinem Gesamtansatz her doch anders denken müsste.
  2. Bevor es aber dazu kam, dass ich mich in diese Begriffswelt von Platon, ganz besonders aber von Aristoteles, neu versenken konnte, setzte sich ein ganz anderes Karussell von Analogien in Bewegung.

Die fünf Paradoxien - Vorstufe: Geist und Materie

DAS GANZE IN EINER NUSSSCHALE. Fünf Themenkomplexe. Vorstufe: Geist und Materie

BIOLOGISCH VERSUS TECHNOLOGISCH

  1. Das vorausgehende Diagramm zeigt eine Gegenüberstellung von biologischen Systemen, wie z.B. dem homo sapiens, und von technischen Systemen wie z.B. intelligente Maschinen.
  2. Das Faszinierende bei biologischen Maschinen ist das Phänomen, dass rein materielle Bestandteile – wie man salopp im Alltag sagen würde – in der Lage sind, hochkomplexe Verhaltensweisen zu ermöglichen, die wir umschreiben mit Worten wie nett, liebenswürdig, gemein, aggressiv, dumm, intelligent, einfühlsam, vorausschauend, usw. Einem Menschen schreiben wir gewöhnlich geistige-emotionale Eigenschaften zu (ganz im Stile von Platon und Aristoteles; wobei beide nicht nur vom Geist sprechen, sondern auch von der Seele als dem eigentlichen Lebensprinzip mit dem Geist als Huckpackeigenschaft).
  3. Da wir heute die materiellen Bestandteile immer mehr auf ihre Zusammensetzung hin analysieren können (anders als Platon und Aristoteles), können wir wissen, dass der Körper ein Verband von vielen Billionen (10^12) Zellen darstellt, die wiederum aus einer unfassbar großen Zahl von Molekülen bestehen, diese wiederum aus Atomen, diese wiederum aus subatomaren Teilchen, die sich dann im Raum quantenphysikalischer Modelle von Wahrscheinlichkeitsverteilungen verlieren.
  4. Und dieses ganze Ensemble benötigt in jedem Moment Energie, die über Nahrung zugeführt wird; zusätzlich auch Flüssigkeit. Wird diese Zufuhr lang genug unterbrochen, bricht das System in sich zusammen. Wir sagen, es stirbt, und damit verschwindet auch sein Verhalten; die Aktivitäten, aufgrund deren wir einem Organismus Gefühle und Geist zugeschrieben haben, sind nicht mehr da. Ist damit der Geist (oder wie Platon und Aristoteles sagen würden: die Seele) auch vollständig weg (bei Aristoteles ja, bei Plato nein), oder existieren diese Nicht-Dinge Seele und Geist getrennt von den biologischen Körpern irgendwie weiter? Falls dem so wäre, müsste die Existenzform von Seele (Psyché) und Geist (Nous) im Sinne von Platon (und z.T. Aristoteles) anders sein als die Existenzform, die wir von biologischen Körpern kennen.
  5. Eher spontan hatte ich neben diese Struktur von biologischen Systemen jene von sogenannten intelligenten Maschinen aufgezeichnet. Strukturell kann man eine starke Analogie beobachten. Auch hier kann man materielle Bestandteile unterscheiden (Chips, Gatter, Verbände von Atomen), die ihre Zustände ändern können, und ein Verhalten, das man – je nach Ausführung und Kontext – auch als nett, intelligent, vorausschauend usw. beschreiben könnte.
  6. Solange Menschen wissen, dass es ja nur eine Maschine ist, sagen sie immer, das ist natürlich nicht wirklich wie beim Menschen. Ist es nicht so offensichtlich (z.B. bei Hausrobotern, die äußerlich wie echte Tiere aussehen), dann verschwindet dieser Vorbehalt und Menschen entwickeln zu den Maschinen eine – zumindest äußerlich ähnlich erscheinende – Beziehung wie zu biologischen Systemen.
  7. Auch Maschinen benötigen beständig Energie, um funktionieren zu können. In dem Fall elektrische Energie, die mittels Transformationsprozessen aus natürlichen Energiequellen gewonnen werden (Fossile Energien, biologische, Wasser- und Windenergie, Sonnenenergie, atomar, …).
  8. Im Wissen um die unterschiedlichen materiellen Substanzen, die den Verhaltensmanifestationen zugrunde liegen, stellt sich die Frage, wie kann es sein, dass so unterschiedliche Strukturen ein so ähnliches Verhalten hervorbringen können? Wie groß ist die Ähnlichkeit? Welche Rückschlüsse kann man auf den bei biologischen Systemen unterstellten Geist (bzw. auch auf das Lebensprinzip der Psychè von Platon und Aristoteles) ziehen nur aufgrund der unterschiedlichen materiellen Strukturen, die sie hervorbringen? Hätte ein Aristoteles seine Überlegungen geändert, wenn er von diesen neuen Details gewusst hätte? Platon möglicherweise ja, Aristoteles – nach meiner Einschätzung – eher nicht. Das Modell von Aristoteles könnte theoretisch mit diesen neuen Erkenntnissen umgehen.
  9. Die ganze Frage besitzt noch eine pikante Note, da die sogenannten intelligenten Maschinen ja nicht an Bäumen wachsen oder als Teil von Korallenriffen entstehen, sondern sie sind vollständig ein Produkt des homo sapiens, seines Denkens und seines Produzierens. Es ist der Mensch, der im Laufe der Jahrtausende gelernt hat, seine Wahrnehmung der Welt zu strukturieren, sie mittels Sprachen mit anderen zu teilen, sie in Handlungen zu überführen, und nach und nach es geschafft hat, die Funktionsprinzipien der Natur – einschließlich der biologischen Phänomene, also auch von sich selbst – soweit zu rekonstruieren, dass er Gebäude errichten konnte, ganze Städte baut, Flugkörper, Kommunikationsmittel, Computer, die ihm helfen können, sein eigenes Denken mehr und mehr zu imitieren und partiell sogar zu übertreffen. Anders gewendet, es ist der Mensch, der seine Art zu denken sowohl in ein gedachtes Modell übersetzt hat (Turing, von Neumann), als auch in eine reale Maschine (viele Personen), die man anschauen, mit der man konkret arbeiten kann.
  10. So betrachtet liegt eigentlich keine Parallelität vor, sondern eher so etwas wie eine Aufschichtung: die materiellen Strukturen des Menschen (sein Körper) sind in der Lage, intern Wolken von Ladungszuständen zu erzeugen und zu modifizieren, mittels denen sie die erfahrbare Welt wahrnehmen, vorstellen und denken können. Mittels diesen Bildern von der aktuellen Welt wie von denkbaren = möglichen Welten hat der Mensch ein mögliches Modell eines künstlichen Geistes gedacht und realisiert, der erkennbare Prinzipien der biologischen Natur sichtbar macht und dem Handlungs- und Denkraum des Menschen hinzufügt.
  11. Der Mensch selbst ist direkt und unmittelbar ein Produkt des evolutionären Naturprozesses. Die intelligenten Maschinen sind – vermittelt durch den biologischen Geist des Menschen – ebenfalls ein Produkt der Evolution. Allerdings finden wir hier eine dramatische Weiterentwicklung im Mechanismus der biologischen Evolution! Verfügte die Evolution bis zum Auftreten des homo sapiens nur über die Möglichkeit, anhand von (blinden! Rein zufälligen!) Änderungen im DNA-Molekül Veränderungen im Bereich des biologischen Lebens herbei zu führen, so stellte die Struktur des homo sapiens selbst schon eine Revolution dar: die biologische Möglichkeit innerer geistiger Zustände in einem biologischen System, die Fähigkeit von Selbstbewusstsein, das sich selbst als in der Welt seiend wahr zu nehmen, alternativ zu denken und zu kommunizieren, dies ermöglicht eine völlig neue Weise, Veränderungen im Kontext der biologischen Evolution einzuführen! Statt viele hundert oder tausend oder noch mehr Generationen abwarten zu müssen, bis irgendwelche zufälligen Änderungen eine brauchbare Veränderung entstehen ließen, kann jetzt jeder einzelne homo sapiens im Verbund mit allen anderen sehr schnell beliebige und komplexe Änderungen erfinden und umsetzen. Ergänzt und verstärkt durch intelligenten Maschinen kann dieser Prozess noch komplexer, noch schneller ablaufen. Einbettet in Netzwerke und verbunden mit Datenbanken ist prinzipiell noch mehr möglich.
  12. Nur der Mensch selbst, seine aktuelle körperliche und – wie wir noch immer salopp sagen – seine psychologische Struktur erweisen sich immer mehr als Hemmschuh: unsere Informationsverarbeitungskapazität ist sehr beschränkt und unser emotionales und triebhaftes Korsett erweist sich als sehr eng, schwerfällig und schlecht angepasst. Möglicherweise der größte Anteil aller Zukunftsmöglichkeiten des einzelnen und der ganzen Populationen wird aktuelle vergeudet, weil die Menschen nicht in der Lage sind, mit ihren Emotionen und Trieben nachhaltig umzugehen.

Die fünf Paradoxien der Menschheit heute - Version 2

DAS GANZE IN EINER NUSSSCHALE. Fünf Themenkomplexe. Version 2

ENTSTEHUNG VON KOMPLEXITÄT

  1. Damit kommen wir zur zweiten Skizze. Sie ist aus der ersten hervorgegangen.
  2. Ausgangspunkt waren die biologischen Strukturen, und hier das Phänomen der Entstehung der Komplexität im Laufe der Zeit.
  3. Zwar haben wir bislang eigentlich nur winzige Fragmente der vorausgehenden Zeit, aber mit den heutigen Methoden der Genetik und Molekularbiologie (ergänzt um viele Methoden aus vielen anderen Wissenschaften) ermöglichen diese Fragmente Blicke zurück in die Zeit, die bis noch vor 10 – 20 Jahren unvorstellbar waren. Immer noch verstehen wir nicht alles; immer noch bleiben viele Fragen offen; aber das Gesamtbild gewinnt immer mehr Konturen.
  4. Es gibt viele Ansätze, wie man diese Zeit des biologischen Lebens auf der Erde (ca. 4 Mrd.Jahre von heute rückwärts) strukturieren und deuten kann. Einer von vielen ist z.B. der von Nick Lane (2009), der versucht hat, die zehn wichtigsten Ereignisse der biologischen Evolution zu identifizieren und zu beschreiben. Er bezieht zwar das Phänomen des Bewusstseins (consciousness) mit ein, nicht mehr aber das, was sich auf der Basis von Bewusstsein dann getan hat. Für ihn als biologischer Chemiker ist dies nachvollziehbar, aber dem Phänomen der Evolution wird es möglicherweise nicht gerecht, weil Evolution mehr ist als das, was die Biochemie erfassen und behandeln kann.

NATUR UND GEIST

  1. Die Aufspaltung der Wissenschaft in Natur- und Geisteswissenschaften hat zwar in Europa eine lange (unglückliche?) Tradition, aber aus historischen Zufälligkeiten und Gewohnheiten folgt nicht ohne weiteres, dass dies auch dem Phänomen des Lebens als Teil der Natur gerecht wird. Der Mensch selbst erscheint aktuell als jene Revolution der Evolution, durch die sich die sogenannte materielle Natur in eine sogenannte geistige Natur transformiert hat. Die Revolte von Aristoteles gegen Plato wurzelt genau hier: Aristoteles wollte das Geistige als Teil des Natürlichen verstehen. Mit dem heutigen Wissen sind wir soweit, dass wir von dem heute Wissbaren ausgehend eigentlich nur sagen können, dass das bekannte Geistige eine Eigenschaft der bekannten materiellen Natur ist. Wer diese Aussage vorschnell als mögliche Abwertung des Geistigen versteht, sollte einen Moment innehalten: er/ sie sollte sich fragen, was er/sie denn vom sogenannten materiell Natürlichen weiß?
  2. Wenn es so ist, dass das bekannte Geistige als Eigenschaft des Natürlichen auftritt, sich zeigt, manifestiert, dann wäre die normale logische Fragerichtung jene, eben dieses materiell Natürliche einer neuen Analyse (und Interpretation) zu unterziehen. Wenn sogar intelligente Maschinen Phänomene hervorbringen können, die wir geistig zu nennen gewohnt sind, dann muss man die Frage stellen, welche inhärenten/ impliziten Eigenschaften des Materiellen sind es, die Geistiges real werden lassen?
  3. Bislang wissen wir, dass die komplexen Zellansammlungen von biologischen Lebewesen sich nur sehr langsam entwickelt haben. Allein schon der Übergang von einzelnen Zellen zu größerem Zellverbänden, die kooperieren, hat Milliarden Jahre gedauert. Und der Übergang von Molekülen zu Strukturen wie es eine Zelle ist hat mindestens einige hundert Millionen Jahre gedauert. Vollständige Erklärungsmodelle, wie man sich diesen Bildungsprozess auf der Basis der bekannten Naturgesetze vorstellen sollte, liegen noch nicht vor.
  4. Die bisherigen Denkmodelle der Physik zur Entstehung des bekannten Universums bieten nicht all zu viel: ein singuläres Energieereignis, in dessen Gefolge sich bei Abkühlung immer mehr Strukturen zeigten (subatomar, atomar, …), die zur Entstehung von Sternen führte, deren Fusionsprozesse weitere schwere Atome hervorbrachten, die wiederum zu Bausteinen jener Moleküle wurden, die im Verlauf von ca. 9 Mrd. Jahr dann bei der Entstehung biologischer Zellen beteiligt waren. Dann noch ein Entropiegesetz, das nicht wirklich ein Gesetz ist und vielfältige Interpretationen zulässt. Schließlich ein großes Schweigen angesichts des Phänomens einer nach 9 Mrd Jahren einsetzenden (biologischen) Komplexitätsbildung, für dies es bis heute keinerlei Ansatzpunkte in den bisherigen physikalischen Modellen gibt. Diejenigen Eigenschaften von Molekülen, die sich physikalisch erklären lassen, reichen nicht aus,um das Gesamtverhalten befriedigend erklären zu können.
  5. Die berühmte Formel von Einstein e=mc2 , durch die eine Beziehung zwischen dem Term Energie e und dem Term Masse m mal Quadrat der Lichtgeschwindigkeit c2 erhält ihre Bedeutung natürlich nur innerhalb des mathematischen Modells, in dem diese Terme definiert sind. In einer saloppen Interpretation kann man aber vielleicht sagen, dass die beobachtbaren (messbaren) Massen und Geschwindigkeiten mit jener Energie korrespondieren, die notwendig ist, dass sich dies beobachten lässt. Masse kombiniert mit Raumzeit ist die Manifestation von jener Energie, die die Physik bislang in ihre Modelle abgebildet hat. Dass diese Massen innerhalb der Raumzeit zu einem Prozess fähig sind, den wir als Ansteigen von funktionaler Komplexität im Bereich biologischer Systeme identifizieren, ist in den bisherigen physikalischen Modellen schlicht nicht vorgesehen. Warum auch; ein normaler Physiker interessiert sich nicht für Phänomene des Lebens (außerdem hat er ja auch ohne die biologischen Phänomene noch genügend Baustellen (dunkle Materie, dunkle Energie, Gravitation,…). Und jene Physiker, die es dann doch manchmal versucht haben (Schroedinger, Davis, ..) sind dann in den Modus des Staunens verfallen und haben immerhin dahingehend Größe gezeigt, dass sie ihr Nocht-Nicht-Verstehen zugegeben haben.
  6. Schliesslich gibt es auch noch die offene Frage, wie man den von den Möglichkeits- und Wahrscheinlichkeitsräumen der Quantenphysik zur jeweilig konkreten Welt (Universum) kommt. Zu sagen, dass unendlich viele Welten rein theoretisch möglich sind, war eine revolutionäre Einsicht. Wie kommt man aber von der Möglichkeit zur Singularität eines konkreten Universums? Und auch hier: wie verhält sich die immer mehr erkennbare evolutionäre biologische Komplexität zum physikalischen Modell einer Energie, die mit Masse und Raumzeit korrespondiert?

Die fünf Paradoxien - Bild 4

DAS GANZE IN EINER NUSSSCHALE. Fünf Themenkomplexe. Version 4

  1. Die vorausgehenden Überlegungen führten zwanglos zu einer dritten Skizze, die sich durch ein langes Telefonat mit Si.Sch. in eine Skizze mit vielen Anmerkungen verwandelte (Diagramm 4).
  2. Ich merke schon, dass eine vollständige Beschreibung dieser Version den Rahmen dieser Blogeintrags völlig sprengen würde. Daher hier nur ein paar erste Gedanken, die dann in weiteren Blogeinträgen (und Gesprächen in der Philosophiewerkstatt und im Emerging Mind Projekt) zu vertiefen sind.

SELBSTABSCHALTUNG – VERWEIGERUNG VON ZUKUNFT

  1. Der Themenkomplex 4 wird inspiriert von dem alltäglichen Phänomen der Selbstabschaltung des Menschen. Zwar ist unser kognitiver Apparat so gebaut, dass die Wahrnehmung schon vorab, ohne Zutun des Bewusstseins, den Strom der sensorischen Reize stark reduziert, abstrahiert und selektiert, aber darüber hinaus gibt es das Phänomen, dass Menschen sich in ihrem Bewusstsein, in ihrem Denken von innen heraus abschalten! Abschalten heißt hier, sich auf ein bestimmtes (meist – aber nicht notwendigerweise – vereinfachendes) Bild der Wirklichkeit festzulegen und dann alles zu tun, um es nicht mehr ändern zu müssen. Von diesem Zeitpunkt an hat in diesem Bild alles irgendwie seinen Platz. Dies ist sehr bequem. Man muss sich nicht mehr mühsam damit beschäftigen, was wirklich wahr ist, ob es wirklich so wahr, ob es wirklich nicht anders geht, ob der Andere vielleicht ganz anders ist als gedacht, usw.
  2. Im Falle von intelligenten Maschinen spricht man salopp von falsch programmiert, wenn das Programm nicht das tut, was es tun soll. Letztlich haben falsche Bilder im Kopf die gleichen Wirkungen wie falsch programmierte Maschinen: sie liefern falsche Bilder von der Welt, verstellen richtige Einsichten, begünstigen falsches Verhalten. Menschen, die nicht merken, dass sie falsche Bilder im Kopf haben (bzw. falsch programmiert sind), können Zukunft gefährden oder ganz unmöglich machen, ihre eigene wie die ganzer Gruppen oder Populationen.
  3. Da die Welt sich permanent ändert, heute womöglich schnelle denn je, ist es eine Herausforderung an das biologische Leben, dafür zu sorgen, dass die Bilder im Kopf aktuelle sind, differenziert, wahr, empathisch, also zukunftsfähig.
  4. Hier sind alle Formen des Lernens einschlägig, kulturelle Muster die vorleben, wie man mit sich selbst, den anderen, der Wirklichkeit umgeht. Die Wirklichkeit, die Wahrheit lässt sich weder verordnen noch einsperren. Wohl aber kann man Menschen einsperren, abrichten, mit Ängsten der Hass vollpumpen, um sie an eigenen, anderen Erkenntnissen zu hindern.

GESELLSCHAFTLICHE RAHMENBEDINGUNGEN FÜR EVOLUTION

  1. Dies führt zum Fragenkomplex Nr.5. Die Geschichte hat verschiedene Gesellschaftssysteme hervorgebracht, u.a. auch solche, die sich demokratisch nennen. Diese Gesellschaftssysteme haben als Grundeinsicht, dass die Chance für eine mögliche nachhaltige Zukunft durch Öffnung und Beteiligung von jedem einzelnen wächst. Analog der blinden biologischen Evolution, die nur Erfolg hatte durch umfassendes radikales Experimentieren, so können auch die Menschen mit der Masse ihres falschen Wissens nur weiter kommen, wenn sie sich allen sich bietenden Möglichkeiten gegenüber öffnen, sie ausprobieren. Freiheit, Offenheit, Kreativität, Meinungsaustausch, funktionierenden Öffentlichkeit, Menschenrechte sind kein überflüssiger Luxus, sondern die biologisch motivierten und sachlich notwendigen Voraussetzungen für eine mögliche Begegnung mit einer nachhaltigen Zukunft. Schon heute kennen wir zahllose Beispiele von umfassenden Zerstörungen, die entstehen, wenn Menschen glauben, dass dies alles nicht notwendig sei.
  2. Der Slogan vom ‚Überleben der Tüchtigsten‘ wird gerne benutzt, um allerlei Arten von Egoismen und Grausamkeiten zu rechtfertigen, gepaart mit riesengroßen Dummheiten in der Zerstörung vielfältigster Ressourcen. Der Slogan beschreibt aber nur einen Teilaspekt der Evolution! Natürlich überleben nur die, die sich für die jeweilig Weltsituation fit gemacht haben, aber dies ist keine Eigenschaft eines Individuums, sondern einer ganzen Population, die nur durch vielfältige Kooperationen mit zahllosen Faktoren Leben gelingen lässt. In der aktuellen Phase der Evolution gilt mehr denn je, dass nur das Zusammenwirken aller Beteiligen eine Chance hat, und hier spielt das gemeinsam geteilte Wissen eine zentrale Rolle, das nicht von einzelnen Playern egoistisch für partielle Zwecke missbraucht wird, sondern von allen für eine gemeinsame nachhaltige Zukunft genutzt werden kann. Ohne Vertrauen und umfassende Transparenz wir die Komplexität an sich selbst scheitern. Es reicht nicht, dass einzelne mächtig und reich sind, alle müssen optimal leben, um die Aufgabe der kommenden Zeit meistern zu können. Die aktuellen Wertesysteme sind weitgehend veraltet und tödlich. Nur gemeinsam kann Neues entstehen.

Anmerkung: Diese Perspektive, die sich jetzt im Verlaufe dieser Überlegungen herausgeschält hat, ist stark verwoben mit den Überlegungen von Manfred Fassler im Blog Emergent Life Academy. Ich verdanke den intensiven Gesprächen mit Manfred sehr viele wichtige und tiefe Einsichten. Möglicherweise hilft es uns beiden, dass wir von unterschiedlichen Blickwinkeln aus auf das Geschehen schauen: er als Soziologe und Kulturanthropologe, ich als Philosoph  und Infomatiker (mit starken Einflüssen aus den Kognitionswissenschaften).

 

QUELLEN

  • Nick Lane, Life Ascending. The Ten Great Inventions of Evolution, London: Profile Books Ltd, 2009

Eine Übersicht über alle Blogbeiräge von cagent nach Titeln findet sich HIER