PSYCHOANALYSE ALS PROTOTYP EINER REFLEKTIERTEN EMPIRISCHEN WISSENSCHAFT. Bericht zur Sitzung vom 9.September 2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 10.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Sitzung am 9.September 2018 hatte eine Vorgeschichte.

ROBOTER VERLANGEN BESCHREIBUNG

In einer Sitzung im Januar 2018 hatte sich die bunt gemischte Gesprächsrunde die Frage gestellt, ob man einen Psychoanalytiker durch einen Roboter ersetzen könne. Die Analyse kam zur Erkenntnis, dass der Bau eines geeigneten Roboters voraussetzt, dass es eine hinreichend angemessene Beschreibung dessen gibt, was genau ein Psychoanalytiker im Rahmen eines therapeutischen Prozesses tut, wie die Interaktionen mit dem Analysanden sind, und welche speziellen ‚inneren Zustände‘ beim Analytiker gegeben sein müssen, damit er so handeln kann. Damit verschob sich die Aufgabenstellung hin zu einer solchen angemessenen Beschreibung des Psychoanalytikers/ der Psychoanalytikerin in einem Therapieprozess.

PSYCHOANALYSE ALS EMPIRISCHE THEORIE

In der nachfolgenden Sitzung im März 2018 wurde daher das Selbstverständnis der Psychoanalyse im Rahmen des Begriffs einer empirischen Theorie abgefragt. Das erstaunliche Ergebnis war, dass die Psychoanalyse grundsätzlich alle Anforderungen an eine empirische Wissenschaft erfüllt. Sie hat allerdings zwei Besonderheiten: (i) Der Beobachter und der Theoriemacher sind selbst Bestandteil der Theorie; (ii) die Messvorgänge laufen unter Laborbedingungen ab, die neben schon klassifizierten Phänomenen kontinuierlich auch ’neue‘ Phänomene zulässt, die für die Theoriebildung wichtig sein können (für Details siehe den Beitrag).

VON DEN DATEN ZUM MODELL

In der nachfolgenden Sitzung im April 2018 fokussierte sich das Gespräch auf das Wechselspiel zwischen ‚Daten‘ und erklärendem ‚Modell‘ (‚Theorie‘) und wie es zum Modell kommt. Speziell im Fall des Psychoanalytikers ergibt sich eine Doppelrolle: (i) als Teil des Prozesses agiert er/sie im Prozess als Mensch mit ‚Un-Bewusstem‘ und und seinen ‚Erfahrungen‘ und seinem bisherigen ‚Modell‘, andererseits (ii) ist er/sie reflektierter Profi, der seine Wahrnehmungen des Analysanden, der Umgebung und seiner selbst mit seinem ‚professionellen Modell‘ abgleichen muss. Der hier offensichtlich werdende ‚dynamische Charakter der Modellbildung‘ ist charakteristisch für jede Modellbildung, wird aber in den meisten empirischen Wissenschaften eher verdeckt. (Für Details siehe den Beitrag).

EINE PSYCHOANALYTISCHE FALLSTUDIE

In der Sitzung vom Mai 2018 wurde nach so viel vorausgehender Theorie ein konkretes Fallbeispiel betrachtet, das eine der teilnehmenden Psychoanalytikerinnen  vorstellte. Dieses Beispiel demonstrierte sehr klar, wie die Psychoanalytikerin als aktives Moment im Therapieprozess im Bereich des Un-Bewussten mit dem Analysand interagiert und dadurch diesen in die Lage versetzt, einen Zugriff auf jene Faktoren zu bekommen, die im Un-Bewussten das Verhalten über Jahrzehnte massiv beeinflusst hatten. Dadurch lies sich dann schnell und wirkungsvoll eine qualitative Verbesserung der Situation des Analysanden herstellen.

WISSENSCHAFTSPHILOSOPHISCHE AKTUALITÄT DER PSYCHOANALYSE

GEISTESWISSENSCHAFTEN VERSUS NATURWISSENSCHAFTEN

Die Gegensatzbildung zwischen ‚Geisteswissenschaften‘ einerseits und ‚Harten Wissenschaften‘ andererseits ist nicht neu und bei vielen so eine Art Stereotyp, das man gar nicht mehr hinterfragt. In den ‚harten Wissenschaften‘ selbst gibt es aber immer wieder von einzelnen selbst-kritische Überlegungen zur Problematik des ‚Beobachters‘ und des ‚Theoriemachers‘, die aus der eigentlichen Theorie ausgeklammert werden, was wissenschaftsphilosophisch zu erheblichen Problemen führt (Ein prominentes Beispiel, was ich auch gerade im Blog analysiere und diskutiere ist Edelman, ein exzellenter Erforscher des Immunsystems und des Gehirns).

INGENIEURWISSENSCHAFTEN

In den Ingenieurwissenschaften, die den empirischen Wissenschaften in Sachen Formalisierung in Nichts nachstehen, eher noch ausführlicher und in vielen Fällen erheblich detaillierter sind, gibt es dagegen schon seit vielen Jahren die wachsende Erkenntnis, dass 60 – 80% der Projekte nicht daran scheitern, dass die beteiligten Experten zu wenig wissen, sondern daran, dass die beteiligten ExpertenInnen ihre eigenen psychologischen Zustände zu wenig kennen, mit ihnen nicht umgehen können, diese in die Planung von Projekten und den zugehörigen komplexen Formalisierungen nicht einbeziehen. Statt von ‚Beobachter‘ und ‚Theoriemacher‘ spreche ich hier vom ‚Akteur‘ als jenem Moment eines Theorieprozesses, das sowohl die Theorie entwickelt als auch anwendet. Eine moderne und zukunftsfähige Theorie des Engineerings wird nicht umhin kommen, irgendwann den Akteur selbst in die Theoriebildung einzubeziehen (einen Theorieansatz in diese Richtung findet sich in dem Online-Buchprojekt ‚Actor-Actor-Interaction Anaysis‘).

PSYCHOANALYSE ALS PROTOTYP

Interessant ist, dass die Psychoanalyse eigentlich ein Prototyp einer solchen ‚Beobachter-Integrierten empirischen Theorie‘ ist, und zwar schon von Anfang an. Wie Jürgen Hardt, einer der teilnehmenden Psychoanalytiker, in Erinnerung rief, hatte der Begründer der Psychoanalyse, Freud, von Anfang an die Forderungen aufgestellt, (i) dass die Psychoanalyse eine Naturwissenschaft sein muss, allerdings (ii) mit dem methodischen Hinweis, dass man das ‚Seelische‘ nicht mit den unleugbar somatischen Parallelvorgängen (im Gehirn, im Körper) verwechseln dürfe. Aus Sicht eines verkürzten Empirieverständnisses wurde dies oft als ‚un-empirisch‘ oder gar als ‚dualistisch‘ charakterisiert. Dies ist jedoch unangemessen. Freud ging es primär darum, zunächst mal jene ‚Phänomene zu retten‘, die sich bei dem damaligen Zustand der empirischen Wissenschaften noch nicht in die aktuellen theoretischen Modelle (sofern es denn überhaupt echte empirische Modelle waren) einordnen liesen. Es zeichnet ‚wahre empirische Wissenschaft‘ schon immer aus, dass sie ‚Phänomene‘ akzeptiert, auch und gerade dann, wenn die aktuelle Theoriebildung sie noch nicht einordnen kann.

KEIN DUALISMUS

Dazu kommt, dass man die Charakterisierung von ‚Dualismus‘ selbst sehr kritisch hinterfragen muss. In der modernen Mathematik und damit auch in allen empirischen Theorien, die Mathematik benutzen (was letztlich alle empirischen Disziplinen sind, die den Anforderungen einer ‚wissenschaftlichen‘ Theorie gerecht werden wollen) gibt es nur zwei Grundbegriffe:’Menge‘ und ‚Relation (Funktion)‘. Während man für das abstrakte Konzept ‚Menge‘ in der empirischen Wirklichkeit nahezu beliebig viele konkrete ‚Objekte‘ finden kann, die als ‚Instanzen/ Beispiele‘ für Mengen dienen können, sozusagen die Prototypen für ‚Reales‘, lassen sich für ‚Relationen/ Funktionen‘ so leicht keine direkte Entsprechungen finden. ‚Relationen‘ bestehen nur ‚zwischen‘ Objekten, ‚Funktionen‘ dagegen lassen sich ‚Veränderungen‘ zuschreiben. Beides ‚Beziehungen zwischen‘ und ‚Veränderungen‘ sind keine realen Objekte; sie existieren quasi nur in unserer Wahrnehmung als ‚virtuelle‘ Objekte. Das Verhältnis zwischen ‚realen Objekten‘ und ‚virtuellen Relationen/ Funktionen‘ würde man daher nicht als ‚Dualismus‘ bezeichnen, da der Begriff des Dualismus spätestens seit Descartes  eher für die Forderung nach zwei unterschiedliche ‚Substanzen‘ (‚res extensa‘, ‚res cogitans) reserviert hat. Objekte kann man vielleicht als Substnzen (‚res extensa‘) bezeichnen, nicht aber ‚virtuelle Relationen/ Funktionen‘.

Angewendet auf die Psychoanalyse wäre die Freudsche Unterscheidung von ’somatischen Prozessen‘ (Gehirn/ Körper als ‚res extensa‘, denen zugleich aber auch ‚dynamische‘ Eigenschaften zukommen (= Funktionen)) und dem ‚Seelischen‘, das sich qualitativ im ‚Bewusstsein‘ zeigt (= Phänomene als ‚virtuelle Objekte‘ (mit virtuellen Beziehungen) in einer spezifischen Dynamik (mit virtuellen Funktionen)) dann kein klassischer Dualismus sondern eine Unterscheidung unterschiedlicher Phänomenklassen, denen unterschiedliche Gesetzmäßigkeiten zukommen.

SYSTEMISCHES KONZEPT

Was viele gern übersehen, das ist die ‚Gesamtsicht‘, die der Psychoanalyse zu eigen ist. Freud selbst tendierte in seiner Spätphase (Hinweis Jürgen Hardt) zu einem ‚organismischen‘ Denken, wie er es nannte; heute würde man es vielleicht ’systemisch‘ nennen. Durch die Anerkennung der Tatsache, dass das ‚Bewusstsein‘ nur einen Teil – heute müsste man vielleicht sagen: einen sehr kleinen Teil! – der Vorgänge im menschlichen Körper abbildet, wobei das ‚Un-Bewusste‘ letztlich den ganzen Restkörper beinhaltet, muss die Psychoanalyse jede Reaktion eines Akteurs als eine ‚Antwort des ganzen Systems‘ betrachten, die in den meisten Fällen von Prozessen und Faktoren verursacht werden, die eben un-bewusst sind. Insofern es weder aktuell eine vollständige Theorie aller Körperprozesse gibt noch man davon ausgehen kann, dass die Menge der möglichen Körperprozesse endlich und konstant ist, nicht einmal im Fall eines einzelnen Akteurs, ist die psychoanalytische Theoriebildung kontinuierlich in einer Situation, wo es eine Modellvorstellung M bis zum Zeitpunkt t gibt, die ab dem Zeitpunkt t mit einer offenen Menge von Phänomenen Ph_t+ konfrontiert werden kann, die vielfach bzw. überwiegend noch nicht Teil des bisherigen Modells M sind. Sofern das Modell M Anhaltspunkte für Interpretationen oder Verhaltensprognosen gibt, kann der Therapeut danach handeln; sofern das Modell ’schweigt‘, muss er das tun, was die Evolution seit 3.8 Milliarden Jahren tut: mangels Wissen über die Zukunft lassen biologische Populationen die Bildung von ‚Varianten‘ zu, von denen vielleicht einige dann in der Zukunft ‚passen‘, wenn alle anderen aufgrund von Veränderungen der Umgebung ’nicht mehr passen‘. Dieses ‚Handeln bei mangelndem Wissen ist der wichtigste Überlebensakt aller biologischer Systeme. Die ‚Quelle‘ für psychotherapeutische Verhaltensvarianten ist das eigene System, der Körper des Psychoanalytikers, schwerpunktmäßig sein Un-Bewusstes, das ‚aus sich heraus‘ wahrnimmt und reagiert.

Von den Psychoanalytikern wurde zahllose Beispiel angeführt, deren Phänomenologie die Arbeitshypothese nahelegt, dass es zwischen dem ‚Un-Bewussten‘ des Therapeuten und dem Un-Bewussten des Patienten offensichtlich eine Kommunikation im Nicht-Bewussten-Bereich geben muss, da unbewusste Zustände des Patienten, von denen der Therapeut bis dahin nichts wusste, sehr charakteristische Körperzustände beim Therapeut hervorriefen, die dann zum ‚Katalysator‘ dafür wurden, dass der Therapeut und der Patient dadurch einen entscheidenden Hinweis auf die zugrunde liegenden un-bewussten Faktoren im Patient gewinnen konnten.

Angesichts dieser Systemsicht und ihrer komplexen Dynamik stellt sich die Frage nach der Funktion des ‚Bewusstseins‘ ganz anders. Irgendwie erscheint das Bewusstsein wichtig (mindestens für alle sprachliche Kommunikation und explizite Planung), aber irgendwie ist das Bewusstsein nur ein kleiner Teil eines viel größeren dynamischen Systems, dessen Ausmaß und genaue Beschaffenheit weitgehend im Dunkeln liegt. Die moderne Gehirnforschung (wie auch die gesamte moderne Physiologie) könnte hier sicher viele wertvolle Erkenntnisse beisteuern, wären sie nicht bislang wissenschaftsphilosophisch so limitiert aufgestellt. Viele der möglichen interessanten Erkenntnisse ‚verpuffen‘ daher im Raum möglicher Theorien, da diese Theorien nicht ausformuliert werden.

ERFOLGSKRITERIEN

Natürlich kann und muss man die Frage stellen, inwieweit ein psychoanalytisches Modell – oder gar eine ausgebaute Theorie – ‚verifizierbar‘ bzw. ‚falsifizierbar‘ ist. Berücksichtigt man die methodischen Probleme mit dem Begriff der ‚Falsifikation‘ (siehe dazu die kurze Bemerkung Nr.18 im Blogbeitrag vom 5.September 2018) beschränken wir uns hier auf den Aspekt der ‚Verifikation‘.

Eine Verifikation wäre im allgemeinen die ‚Bestätigung‘ einer ‚Prognose‘, die man aus dem ‚bestehenden Modell‘ ‚abgeleitet‘ hatte. Da das ‚bestehende Modell‘ im Fall der Psychoanalyse im allgemeinen nicht als ‚formalisiertes Modell‘ vorliegt, kann es sich bei den möglichen ‚Prognosen‘ daher nur um ‚intuitive Schlüsse‘ des Therapeuten aus seinem ‚bewusst-unbewussten‘ Modell handeln. Im praktischen Fall bedeutet dies, dass (i) es einen ‚therapeutischen Prozess‘ gab, der alle offiziellen Anforderungen an einen psychoanalytischen Prozess erfüllt, dass (ii) ein Zustand erreicht wird, in dem der Patient einen höheren Grad an ‚Selbststeuerung‘ erreicht hat. Dies kann sich an vielerlei Phänomenen fest machen, z.B. der Patient hat weniger ‚Angst‘, sein ‚körperlicher Gesundheitszustand‘ ist besser geworden, er kann seine ‚Alltagsaufgaben besser lösen‘, er ist generell ‚weniger krank‘, er besitzt mehr ‚Selbstvertrauen‘ im Umgang mit zuvor gefürchteten Situationen, und dergleichen mehr. All diese Phänomene kann man objektivieren. Die sehr verbreiteten Auswertungen nur per Fragebogen sind eher unbrauchbar und nutzlos.

WEITERES VORGEHEN

Zum ersten Mal tauchte die Idee auf, die bisherigen Gespräche zur Psychoanalyse in einem kleinen Büchlein zusammen zu fassen und zu publizieren.

Eine spontane Fortsetzung findet sich HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

EMERGING MIND PROJEKT – OFFIZIELLE VORSTELLUNG – EIN PLÄDOYER FÜR EINE GEMEINSAME ZUKUNFT

Mi 20.Januar 2016 um 19:30h

Am Mi 20.Januar 2016 um 19:30h wird das Emerging Mind Projekt als ein Projekt im Institut für Neue Medien (INM), Frankfurt, Schmickstrasse 18, vorgestellt werden. Wie man aus der Ankündigung des INM entnehmen kann, handelt es sich nicht um eine Gala- Veranstaltung, sondern um ein Werkstattgespräch mit den ‚Machern‘; also Emerging Mind Projekt unplugged.

Werkstattgespräch mit den Machern

Das ‚Emerging-Mind Projekt‚ versteht sich als ein öffentliches Wissenschaftsprojekt, das Hochschulen, Schulen, Firmen und interessierten Bürgern die Möglichkeit bieten soll, sich über einige zentrale Fragen der heutigen gesellschaftlichen Entwicklung aus eigener Anschauung eine qualifizierte Meinung zu bilden.

Datenräume und eigenständige Algorithmen

Wir leben in einer Zeit, in der die Evolution, vermittelt durch die Menschen, neuartige Technologien hervorgebracht hat, die sich wie ein zweiter Körper um den ersten Körper schmiegen, versehen mit einer Aura von Datenräumen und eigenständigen Algorithmen, die ein globales Eigenleben führen, die sich unserer direkten Wahrnehmung und Kontrolle entziehen. Wir sind einzelne, erleben uns als einzelne, aber als Teil der globalen algorithmisierten Datenräume sind wir nur noch Aktivitätspunkte in einem großen Netzwerk, einem neuen Datensuperorganismus, der den individuellen Willen nur noch als statistisches Momentum betrachtet. Tatsächlich herrschen die Algorithmen nach eigenen Regeln.

 

Manager als neue Sklaven iher Algorithmen?

Offiziell gibt es Firmen und Manager dieser Firmen, die diese globalen algorithmisierten Datenräume eingerichtet haben, betreiben und kontrollieren. Offiziell, aber inoffiziell entziehen sich diese global arbeitenden Algorithmen schon heute jeder ernsthaften Kontrolle. Kein einzelner Mensch kann mehr verstehen, was die Algorithmen wirklich tun, warum sie etwas tun, ob das gut oder schlecht ist, was sie tun. Die Manager als Herrscher über die Datenräume sind schon jetzt immer mehr die Getriebenen: ihre Firmen hängen von den globalen algorithmisierten Datenräumen ab. Sie können sie nicht mehr abschalten; dann bricht ihre Firma zusammen. Wenn sie sie nicht abschalten, verselbständigt sich das systembedingte Chaos. Da diese Algorithmen als solche nichts über die Welt oder über wahre Sachverhalte wissen, verrechnen sie Daten gegen Daten. Wenn aber die Referenzdaten falsch sind, werden diese Berechnungen falsch. Nahezu jeder hat schon mehrfach erlebt, wie er aus Versehen falsche Eingaben produziert hat, diese aber nicht korrigieren kann; das System lässt Korrekturen nicht zu. Schon jetzt existieren im System viele falsche Daten. Es ist nur eine Frage der Zeit, bis die falschen Daten die richtigen überwiegen. Schöne neue Welt der Superalgorithmen.

Einen wirklichen Wahrheitsfindungsalgorithmus gibt es noch nicht.

Einen wirklichen Wahrheitsfindungsalgorithmus gibt es noch nicht. Woher auch? Die Entwickler dieser Algorithmen, die Menschen, haben diese Hausaufgabe bislang nicht gelöst. Die bisherige Philosophie, die aktuell Wissenschaften, sie alle bilden aktuell das Bild eines riesigen Daten- und Meinungschaos ohne erkennbares Prinzip der Konsolidierung.

Eine neue Weltreligion?

Der Glaube an die Maschine, die alles irgendwie richten wird, obwohl die Erzeuger selbst es bislang nicht schaffen, ist offensichtlich sehr groß, geradezu mystisch. Ist das die neue Weltreligion, die alle besoffen macht und das Denken verabschiedet? Der nächste Super-Börsencrash scheint damit vorprogrammiert.

Keine billige Polemik

Im Emerging Mind Projekt geht es aber nicht um billige Polemik. Diese nützt niemandem. Das Emerging Mind Projekt lebt sogar von der Vision, dass neue, algorithmisierte, intelligente und lernfähige Netzstrukturen als Moment an der evolutionären Entwicklung tatsächlich zur Logik der Evolution gehören. Diese nächste Stufe der Evolution – wir sind mitten drin – muss sich möglicherweise vollziehen. Die Frage ist nur: wie?

Notwendigkeit einer neuen umfassenden Entwicklungswissenschaft

Historisch ist dieser Zustand radikal neu. Er bildet als solcher eine gewisse Singularität (neben den vielen anderen Singularitäten, die wir schon kennen und von denen wir beeinflusst sind). Was wir hier brauchen, wäre ein neues, vertieftes philosophisch-wissenschaftliches Verständnis. Alle bekannten Disziplinen greifen hier aber zu kurz; sie betrachten immer nur Ausschnitte des Problems. An dieser Stelle hat sich das Emerging Mind Projekt verstärkt, erweitert durch ein kooperierendes Parallelprojekt genannt Emergent Life Academy (ELA), in der die Vision einer neuen, umfassenden Entwicklungswisseschaft soweit konkretisiert werden soll, dass sie arbeitsfähig wird und uns allen helfen kann, das umfassende globale Phänomen einer Entwicklung auf allen Ebenen denken zu können.

Entstehung einer Anti-Wissenschaft?

Neben den umfassenden Aspekten des Phänomens einer globalen Entwicklung, die wie ein Sturm über die menschlichen Gesellschaftssysteme hereinbricht (letztlich ein Merkmal von Evolution seit Anbeginn), gibt es aber auch schon Einsichten in die innere Logik, in die innere Maschinerie von Entwicklung, von Intelligenz, Lernen, Bewusstsein, Psyche und Geist. Die Algorithmen in den Computern und Netzwerken sind erfahrbare konkrete Beispiele. Für die Mehrheit der Menschen sind diese Algorithmen aber fremd, unverständlich; ihre Macher lieben das Kryptische, Verborgene. Und da Algorithmen mittlerweile ein Rohstoff für industrielle Produktion und militärische Macht darstellen, werden sie zusätzlich geschützt, abgeschottet, unter ‚Top Secret‘ gestellt, so dass man noch weniger versteht, was unsere Welt im innersten zusammenhält. Galt es lange Zeit als Credo moderner Wissenschaft, die Welt zu erklären, sie transparent zu machen, sie einer verantwortungsvollen Gestaltung zuzuführen, hat die Erfindung der Berechenbarkeit, der Computer und der Netzwerke dazu geführt, dass es eine neue Anti-Wissenschaft gibt: Wissen dient nicht mehr zum Verstehen und nicht mehr für ein besseres Leben für alle, sondern wird abgeschottet, um die Herrschaft weniger über den Rest der Menschheit zu begründen. Das ist eine Umkehrung bisheriger Werte. Die Moderne, das Demokratische, die Menschenrecht zerbröseln im algorithmischen Alltag zu Lapalien, die immer weniger Wertschätzung besitzen.

Algorithmen auf dem Prüfstand

Damit erklärt sich die zweite Dimension des Emerging Mind Projektes; neben Emergent Life Academy für die globalen Entwicklungszusammenhänge sollen die konkreten Algorithmen vorgestellt, untersucht, reflektiert und bewertet werden; nicht isoliert, sondern im Kontext möglicher Wirkzusammenhänge, speziell im Kontext des menschlichen Lebens, der menschlichen Gesellschaft: Was ist künstliche Intelligenz? Was kann sie wirklich? Ist eine Symbiose zwischen Menschen und künstlicher Intelligenz möglich? Könnten die intelligenten Maschinen sich verselbständigen? Dies sind einige der Leitfragen.

Öffentliche Lernräume für das eigene Lernen

Um diese Fragen zu beantworten werden in einem öffentlichen kollaborativen virtuellem Raum virtuelle Bereiche eingerichtet, in denen man solche Algorithmen und ihre Wirkungsweise studieren kann, mitdiskutieren, mit entwickeln, mit experimentieren. Dies geschieht schrittweise eingebunden in echte Lernprozesse von Schulen, Hochschulen und Betrieben. Wir wollen selber lernen, unser Lernen reflektieren und dabei weiter entwickeln. Zukunft als Alltag.

Auch ein eigenes Kunstprojekt: PHILOSOPHY-IN-CONCERT

Und wer denkt, das war es jetzt, dem sei gesagt, dass wir nicht nur Philosophie und Wissenschaft zusammenbringen wollen, nicht nur Theorie und Lernpraxis, sondern auch all das zusätzlich verbunden mit einem Kunstprojekt genannt PHILOSOPHY-IN-CONCERT. Aktuell weiß vielleicht noch niemand, wie das genau funktionieren soll; klar ist nur, dass wir uns die Freiheit nehmen, philosophisch-wissenschaftliche Gedanken und Algorithmen als Material zu benutzen, um eine neue Art von Kunst-Performance zu leben: Menschen und intelligente Maschinen zusammen in einem hybriden Team, im Spiel mit sich selbst, der Welt, der Geschichte, um mögliche Zipfel der Zukunft zu erhaschen. Schon immer war der schwierigste Part im Leben das Kreative, die Innovation, der Beginn des Neuen. Für wirklich Neues nützen die alten Rezepte nur bedingt. Die DNA einer Zelle kann Anhaltspunkt für eine neue Zelle sein, ihre unveränderte konservative Übernahme für eine Zukunft wäre aber ein sicheres Todesrezept. Machthaber lieben solche kritiklosen konservativen Reproduktionen; das ist auch das sicherste Mittel der Selbstzerstörung.

Spuren der Vergangenheit, Medienreflexe

In diesem Blog gab es viele Beiträge, die mehr oder weniger in die Richtung des aktuellen Emerging Mind Projektes deuten. Ein Beitrag vom 10.Oktober 2012 lautete

NACHTGESPRÄCH im INM (Frankfurt) oder REENGINEERING VON GOETHES FAUST

und deutet an, dass die Gedanken dazu herumspukten. In einem Beitrag vom 18.November 2012, der auf einen Vortrag zurückging, wurde die Frage nach der Möglichkeit eines künstlichen geistes explizit gestellt:

KANN ES DOCH EINEN KÜNSTLICHEN GEIST GEBEN?

Am 31.Dez.2012 gab es einen Textversuch mit vielen technischen Begriffen mit dem Titel:

GEIST-SICHTBARMACHUNGS-EXPERIMENT, Teil 1, Begriffe und theoretischer Rahmen

Am 28.April 2013 folgten dann Reflexionen im Kontext des Phänomens Komplexität in der Evolution mit dem Ttel:

Randbemerkung: Komplexitätsentwicklung (Singularität(en))

Wegen der zahlreichen kontroversen Diskussionen zur Idee der Komplexitätssteigerung im Kontext von Evolution gab es am 23.Mai 2013 dazu einen weiteren Beitrag mit dem Titel

Randbemerkung: Komplexitätsentwicklung (Singularität(en)) – Teil 2

Es folgten dann weitere Stellungnahmen wie die am 14.Juni 2014:

EMERGING MIND PROJECT – SICHTBARMACHUNG DES GEISTES PROJEKT – Erste Lebenszeichen

Dicht gefolgt vom nächsten Beitrag am 15.Juni 2014 mit dem Titel:

EMERGING MIND – Mögliche Konsequenzen

Mittlerweile war das Thema auch außerhalb des INM angekommen. Am 25.April 2015 erschien ein Beitrag in telepolis:

Der Traum vom künstlichen Geist

Es folgte am 20.Mai 2015 ein Vortrag im Rahmen einer dpa-Veranstaltung mit dem Titel:

Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab?

in dem Phänomene des Alltags reflektiert wurden mit Blick auf die treibenden Strukturen. Es folgten dann immer wieder Presseartikel im Umfeld des Themas.

 

Einen Überblick über alle Beiträge des Autors cagent in diesem Blog nach Titeln findet sich HIER.

U.ACKERMANN: DIE DIGITALE REVOLUTION – Eine Herausforderung für die Freiheit – Kurzbesprechung

U.Ackermann (2014), DIE DIGITALE REVOLUTION – Eine Herausforderung für die Freiheit, in: U.Ackermann (Hg.), Freiheitsindex Deutschland 2014 des John Stuart Mill Instituts für Freiheitsforschung, Frankfurt am Main: Humanities online

KONTEXT

1. In diesem Blog wurde schon mehrfach das Thema Neue Technologien und deren Auswirkungen auf die Gesellschaft angesprochen. Das kleine Büchlein vom John Start Mill Institut unter der Leitung von Ulrike Ackermann passt sehr gut in diese Thematik.

ACKERMANN – FREIHEIT

2. Insbesondere der Beitrag der Herausgeberin Ulricke Ackermann fällt – im Vergleich zu vielen anderen Publikationen zu diesem Thema – sehr positiv auf. Das Freiheitsthema wird sehr differenziert heruntergebrochen auf die großen Dimensionen Individuum, Alltag und Politik, und das Ineinanderspiel von realer und virtueller (digitaler) Welt wird sachkundig an vielen Beispielen vorgestellt und kritisch gewürdigt.

3. Fernab einer einfachen Schwarz-Weiß-Malerei findet sie sowohl Worte für die unbestreitbaren neuen Möglichkeiten und Vorzüge, die die neue digitale Welt auf allen Ebenen eröffnet, deutet aber zugleich auch hin auf die unübersehbaren Risiken und schleichenden Tendenzen zu einer immer größeren Vereinnahmung des einzelnen auf allen Ebenen.

4. In der europäischen Aufklärungstradition und im Kontext von Menschenrechten und Demokratien wurde die konstitutive Bedeutung einer realen Privatheit für das Leben einer Demokratie, zwar nur sehr langsam, aber dann doch mit großer Entschiedenheit erkannt und in der Gesetzgebung verankert. Durch den immer leichteren Zugang auf private Daten durch die modernen Technologien und durch neue globale digitale Geschäftskonzepte, in denen die kostenlose Nutzung gegen höchst intime Datenausbeutung getauscht werden, gekoppelt mit der als ‚Fürsorge‘ getarnte Datensammlung von Behörden, geraten wir aber in eine Situation, in der die hochgeschätzte Privatheit mit ihren speziellen Freiheitsrechten sich mehr und mehr buchstäblich in Luft auflöst. Während die europäischen Institutionen den Eindruck erwecken, die Idee der Privat hochhalten zu wollen, verursachen die deutschen Regierungsvertreter einen Eindruck, als ob sie – entgegen offiziellen politischen Verlautbarungen – real eher eine starke Liberalisierungsformel (sprich: eine Auflösung der Privatheit) vertreten.

5. Die Fülle der Details im Artikel zeugen von großer Sachkenntnis und können hier nur erwähnt werden.

DISKUSSION

6. Eigentlich kann man dem Artikel nur Positives abgewinnen. Dennoch bleiben wichtige Fragen offen, denen im Rahmen dieses Blogs versucht wird, nach zu gehen.

7. Die Diskussion im Beitrag von Ulrike Ackermann folgt den großen Linien der europäischen Aufklärung und den aktuellen Werten der Menschenrechte und den grundlegenden Verfassungstexten in Deutschland und Europa. In diesem Rahmen ist die Argumentation schlüssig.

8. Einem aufmerksamen Betrachter der Menschenrechts- und Grundgesetzdiskussion (vgl. die 11-teilig Diskussion zum Begriff ‚Menschenwürde‘ im Kontext des gleichnamigen Buches von Paul Tiedemann in diesem Blog) wird aber nicht entgangen sein, dass sich die aktuellen Interpretationen dieser Werte im Bereich der Rechtsexperten eher in die Richtung bewegt, dass eine klare Begründung mindestens schwierig, wenn nicht gar unmöglich wird. Selbst ein Paul Tiedemann, dem die Bewahrung der Menschenwürde ein großes Anliegen ist, muss für die Begründung seines Standpunktes zu Argumentationen greifen, die alles andere als selbsterklärend sind.

9. Erweitert man den Blick auf die Entwicklung des Menschenbildes in den Naturwissenschaften und den technologienahen Bereichen, dann muss man konstatieren, dass die Naturwissenschaften, sofern sie überhaupt einen Bezug zum Menschenbild nehmen, den Menschen in keinster Weise so sehen, wie Grundgesetz und Menschenrechte dies voraussetzen. In den Naturwissenschaften ist der Mensch der Aufklärung praktisch verschwunden: eine Ansammlung von Molekülen, Atomen, Teilchen ohne jegliche spezifische Bedeutung und damit ohne jegliche Werte.

10. Bedenkt man, dass diese Verschiebungen im Weltbild zusätzlich einhergehen mit einem dramatischen Abbau von geistes- und sozialwissenschaftlichen Lehrstühlen und Standards, dann werden hier auch mögliche Quellen alternativer kritischer Betrachtungsweisen schlichtweg ausgelöscht.

11. Ein weiteres Moment ist die ‚Form‘ der Technologie. Mit dem Aufkommen von ‚intelligenten‘ Maschinen erleben wir nicht nur eine weitere industrielle Revolution, die bisherige Industrien und Arbeitswelten bedrohen, sondern wir erleben einen Frontalangriff auf alsbald scheinbar alle Fähigkeiten, die bislang als ‚typisch Menschlich‘ galten. Was dies für die bisherigen Gesellschaften bedeuten, ist schwer voraussagbar. Auf keinen Fall kann es ein einfaches ‚weiter so‘ wie bisher geben.

12. Sieht man diese neuen technologisches Möglichkeiten mit der simultanen Erosion des aufklärerischen Menschenbildes (repräsentiert in den Menschenrechten) und der Tendenz selbst demokratischer Regierungen, die Besonderheit des Menschen ‚zu opfern‘, dann kann man erahnen, dass die bisherige (‚klassische‘) Freiheitsdiskussion erheblich ausgeweitet und radikalisiert werden muss. Der Mensch selbst steht zur Debatte in einer Weise, wie wir es noch nie erlebt haben.

13. Genuine ‚Anwälte‘ des Menschen sind aktuell schwer identifizierbar. Die klassischen Offenbarungsreligionen taugen hier – wie schon in der Vergangenheit – nur sehr begrenzt. Ihre Menschenbilder sind bis heute zu stark mit vorwissenschaftlichen Bildern durchsetzt.

 

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 1

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll

Kapitel 1

(Letzte Änderung 28.Juli 2015)

Einkapselung und Abschaffung

Start in den Tag

Eine leise Musik ruft mich in den Tag zurück. Der Weckcomputer kennt meine Vorlieben für Musik; er hat meinen Schlaf beobachtet, er misst regelmäßig meine aktuellen Körperdaten, und er schätzt meine mögliche Stimmung ab. Zur rechten Zeit erklingt die Weckmusik. Wenn sie zu leise ist, rufe ich ‚lauter‘; und wenn sie mir nicht passt vielleicht ‚lass das‘. Im Bad starre ich verschlafen in einen Spiegel, der sich um gute Laune bemüht, dumme Sprüche drauf hat, Bilder einblenden kann, andere Musik, oder der auch nur redet. Anhand meines Gesichtsausdrucks und meiner Stimmlage erfasst er ziemlich gut, wie ich drauf bin; besser als viele Menschen. Ich fühle mich verstanden … Unterdessen wird die Küche für ein Frühstück präpariert und das Ankleidungsprogramm erstellt anhand der Termine aus dem Kalender und meiner aktuellen Stimmungslage einen Ankleidungsvorschlag … Während dem ernährungsbewussten Frühstück aus zertifizierten Lebensmitteln höre und schaue ich mir ein paar vorsortierte Nachrichten an (es gibt stündlich mehrere hunderttausend neue Meldungen, aus denen das System die ‚wichtigen‘ herausfiltert). Nach dem Frühstück erscheint auf dem Bildschirm eine Liste der Dinge, die für die Küche nachbestellt werden müssten. Ich bestätige, verneine, oder erweitere die Liste und schicke den Auftrag ab. Sobald ich Anstalten treffe, das Haus zu verlassen, wird der Aufzug schon in die entsprechende Etage gesteuert und ein Transport-eMobil aktiviert. Wenn ich einsteige weiß dieses Transport-eMobil anhand meines Kalenders schon, welches Ziel anzufahren ist. Ich entspanne mich, lasse mir wichtige Dokumente anzeigen oder stelle eine Kommunikationsverbindung zu einem Geschäftspartner her…

Diese Vision mag den einen erschrecken, die andere begeistern; sie ist auf jeden Fall nicht mehr weit weg vom technisch Möglichen. Es sind weniger technische Gründe, die solch ein Szenario bislang noch verhindern, sondern eher Fragen der Abstimmung der technischen Systeme untereinander, Fragen der Investitions- und Betriebskosten, der Wartung, der Sicherheit, der Privatheit, und der Denk- und Lebensgewohnheiten.

Auch ist interessant, was ‚hinter den Kulissen‘ alles passiert bzw. passieren kann.

Hinter allem das Netz

Alle Daten laufen durch Netzwerke, über Server und werden von Programmen verwaltet. Technisch könnte man von jedem Punkt im Netzwerk aus alle Daten beobachten, sammeln, auswerten und darauf Entscheidungen aufbauen. Damit dies nicht ungehindert geschieht, werden die Daten partiell ‚kodiert‘ und/ oder ‚verpackt‘, so dass ein anderer als der intendierte Empfänger, die Daten nicht so ohne weiteres ‚lesen‘ kann. Aber letztlich ist es nur eine Frage des Rechenaufwandes, um alle Varianten abzuprüfen, um die ‚versteckte‘ Botschaft zu identifizieren, sie zu ‚dekodieren‘. (Oder, einfacher, man verschafft sich Zugang zu den Verschlüssungsprogrammen, oder über die Mikroprogramme in der Hardware selbst). Während die einen ein solches unautorisiertes Mitlesen direkt gegen Geld als ‚Cyberkriminelle‘ tun, gibt es die staatlich subventionierten ‚Geheimdienste‘, die ‚für sich legal‘ sind, für alle anderen aber sind sie auch nichts anderes als ‚Cyberkriminelle‘, ‚Staatsterroristen‘. In der Regel müssen sie nichts befürchten, wenn sie die Rechte anderer verletzen. Schließlich gibt es noch die Grauzone der privaten Wirtschaft, die sich auf vielen Wegen formal die Zustimmung der Benutzer erhandeln, ohne dass diese in der Regel überschauen, was alles mit ihren Daten geschieht oder geschehen kann. Dass jede Klickaktion im Web dazu führt, dass man kurz darauf tage- und wochenlang nervige Anzeigen eingeblendet bekommt, ist ärgerlich und störend, jedoch nicht notwendigerweise gefährlich. Dass die eigenen Daten über Wochen, Monate und Jahre systematisch gesammelt werden, für viel Geld an verschiedene Firmen (auch Geheimdienste) verkauft werden, und mittels dieser Daten neue Dienstleistungen, Produkte und Firmen generiert werden, das kann sehr gefährlich sein, kann den einzelnen massiv schädigen und kann ganze Märkte und Volkswirtschaften zerstören.

Datenschmarotzer

Banken und Versicherungen könnten sich auf diese Weise Kunden vorsortieren und entsprechend behandeln. Krankenversicherungen könnten z.B. vorschreiben, was man isst und wie man sich bewegen muss. Personalabteilungen von Firmen könnten (und manche tun dies schon real) die Bewerber nach ihrer Vorgeschichte im verborgenen Netz sortieren. Selbst kleinste Vergehen aus der Vergangenheit, Krankheiten, Ereignisse aus der Freizeit, Unwahre Behauptungen im Netz, sie alle können dazu führen, dass man keinen Job mehr bekommt – oder, ja, man bekommt zwar ein Angebot, aber man wird durch die Blume erpresst: man weiß ja, dass; man könnte vielleicht darüber hinwegsehen, wenn …
Diejenigen, die hinter den Oberflächen Informationen sammeln können, die gewinnen Einblicke in Marktsituationen, in potentielle Märkte und in private Aktivitäten. Sie können Dienstleistungen und Firmen anbieten, bevor jeder andere ahnt, dass dies möglich ist; die Datenmonopolisten können auf diese Weise zu Marktmonopolisten werden, und andere Firmen schleichend ‚erdrücken’… Globale Firmen im Katz und Maus Spiel mit nationalen Regierungen, oder Regierungen mit ihrer Bevölkerung.

(Anmerkung: Das Beispiel der andauernden Geheimverhandlungen zu TTIP (Transatlantic Trade and Investment Partnership) wird von vielen als Beleg genau für diesen Trend gesehen. Bis heute werden diese Verhandlungen an den nationalen Parlamenten der USA und Europas vorbei geführt, selbst nach eindeutigen Interventionen verschiedener Parlamente. Wenige EU-Bürokraten verhandeln unter Ausschluss der Öffentlichkeit mit Vertretern globaler Kapitalvertreter über die Zukunft von ca. 320 Mio US-Amerikanern und ca. 500 Mio Europäern. Die Vermutung, dass hier eine ausgewählte Schar von Firmen versucht, die Einflussmöglichkeiten der nationalen gewählten Parlamente zu ’neutralisieren‘, wurde bisher nicht widerlegt. Im Gegenteil, alle Informationen, die bekannt werden, stützen diese Vermutung und alle wichtigen deutschen Politiker geben bislang nur allgemeine Floskeln zum Besten, warum dies gut sein soll. Was unterscheidet diese Situation noch von einem Staatsstreich, in diesem Fall ein Staatsstreich von oben?)

Vom Verschwinden der Welt

Das Voranschreiten der Digitalisierung bringt es mit sich, dass der einzelne menschliche Akteur immer weniger mit realen Umweltausschnitten zu tun hat, dafür immer mehr mit digitalen Repräsentationen. Realität verwandelt sich in digitale Dateien unterschiedlichster Formate. Das Wetter erscheint als Landkarte mit Piktogrammen. Reale Unternehmen verwandeln sich in Zahlen und Kurven in einem Diagramm. Ressourcen aller Art sind nur noch einfache Zahlen. Reale Produktionsprozesse werden zu mathematischen Funktionen in Rechenblättern oder anderen Computerprogrammen. Die anderen Menschen verschwinden hinter SMS-Texten, standardisierten Bildern, werden als Videoplots formatiert; sie werden zur Stimme aus dem Kopfhörer; man kann sie hinter einem Avatar in einem Computerspiel vermuten; sie sind numerische IDs mit einer Liste von Attributen im ASCII-Format. Nahrungsmittel sind losgelöst von ihren Herstellungsprozessen; sie treten uns vor Augen in bunten Verpackungen, wo wir das sehen, was aufgedruckt ist, nicht das, was wirklich drin ist. So kann ein bestimmtes Siegel der Händlerkette riesige Gewinne bringen, obgleich das reale Produkt dahinter dem Siegel gar nicht entspricht… Die Fabrik wird zu einem Schaltplan; die Produktion erscheint als Zahlenkolonne, als Säulendiagramm. Mit Robotern wird die Produktion zuverlässiger und billiger, und die potentiellen Käufer, die durch Arbeit ihr Geld verdienen, werden abgeschafft, weil sie zu anfällig und zu teuer sind. Wer denkt darüber nach, dass die Arbeitenden mit den potentiellen Käufern korrespondieren? Wer soll noch konsumieren, wenn keiner mehr verdient? Die Umverteilung des verfügbaren Reichtums auf immer weniger Menschen ist aktenkundig. Schaffen sich die Gesellschaften selber ab?

Digitale Sklaverei

Hatte man früher ein Produkt gekauft, ging man in ein Geschäft, zahlte bar, nahm das Produkt in Empfang und ging nach Hause. Zum Händler musste man bestenfalls zurück, wenn es sich um einen Garantiefall handelte, das Produkt Mängel aufwies, die es in der Garantiezeit nicht aufweisen sollte.

Will man heute ein Produkt kaufen, bekommt man dieses vielfach gar nicht mehr direkt und ausschließlich, sondern man erwirbt im Falle von softwarebasierten Produkten eine Art Nutzungsrecht auf Zeit, das an vielerlei Bedingungen geknüpft wird. Man muss seine Adresse preisgeben, seine Kontodaten, man muss seine Nutzung über einen fremden Server registrieren und permanent kontrollieren lassen; man muss zusätzlich oft fremden Programmen erlauben, das Gerät ‚bewohnen‘ und ‚benutzen‘ zu dürfen, ohne dass man dies kontrollieren oder ändern könnte. Über Kameras und sonstige eingebaute Sensoren kann das fremde Programm jederzeit Daten aus der nächsten Umgebung messen und weiter leiten. Während ich an meinem Computer sitze und schreibe können die Bilder meines Gesichts (klar, wen interessiert dies schon; und doch, warum überhaupt?) in Bruchteilen von Sekunden über das Netz irgendwohin in die Welt reisen.

Die Frage ist, ob man noch ein Alternative hat? Könnte ich auf diese Programme verzichten? Im Berufsleben gibt es immer weniger Alternativen; allein, um die normale Arbeit machen zu können, benötige ich heute ein ganzes Bündel von Programmen, und jedes Mal muss ich mich an ein fremdes Programm auf einem fremden Server ‚verkaufen‘. Ich habe keine Alternative (Anmerkung: Ja, es gibt auch freie Programme, ich benutze solche Programme von Anbeginn an. Doch können diese Programme — von glücklichen Ausnahmen abgesehen — mit der Industrie sehr oft nicht Schritt halten, speziell nicht dort, wo Programme spezielle Hardware steuern. Hersteller von Hardware können den Entwicklern von freien Programmen die notwendigen Daten vorenthalten, z.B. weil sie sonst von den Anbietern industrieller Betriebssysteme nicht berücksichtigt würden … )

Tritt man einen Schritt zurück und schaut sich aus einer gewissen Distanz an, was hier geschieht, kann man auffällige strukturelle Ähnlichkeiten entdecken mit dem Jahrtausende alten Phänomen der Sklaverei (siehe dazu den aufschlussreichen Text des Zusatzübereinkommens über die Abschaffung der Sklaverei, des Sklavenhandels und sklavereiähnlicher Einrichtungen und Praktiken abgeschlossen in Genf am 7. September 1956, genehmigt von der Schweizer Bundesversammlung am 17. Juni 1964.

In Artikel 1 dieses Zusatzabkommens wird als ein der Sklaverei zugeordnetes Phänomen die ‚Schuldknechtschaft‘ erwähnt. Eine Schuldknechtschaft entsteht, wenn “… ein Schuldner als Sicherheit für eine Schuld seine persönlichen Dienstleistungen oder diejenigen einer von ihm abhängigen Person verpfändet, wenn der in angemessener Weise festgesetzte Wert dieser Dienstleistungen nicht zur Tilgung der Schuld dient oder wenn diese Dienstleistungen nicht sowohl nach ihrer Dauer wie auch nach ihrer Art begrenzt und bestimmt sind … “.

Im Falle der Softwarenutzung würde ich es bevorzugen, einen Betrag X zu zahlen um diese Programme nutzen zu können, ohne weitere Abhängigkeiten. Einen Betrag X muss ich in der Regel tatsächlich zahlen, dieser Betrag X reicht jedoch nicht aus; ich werde zusätzlich gezwungen, sehr viele Daten von mir ‚abzugeben‘, über die ich auf unbeschränkte Zeit jegliche Kontrolle verliere. Und nicht nur das, meine tatsächliche Nutzung wird fortwährend kontrolliert, protokolliert und könnte jederzeit vom Hersteller beendet werden, mit entsprechend schlimmen Folgen für die Arbeitsprozesse, die mit dem Programm verknüpft sind.

Rein formal versichern Hersteller auf dem Papier, dass sie die Daten ausschließlich zum Zwecke des störungsfreien Betriebes der Programme benutzen, faktisch hat jedoch der Kunde keine Kontrolle über die tatsächliche Verwendung der Daten. Außerdem berührt dies nicht die faktische ‚Schuldknechtschaft‘ der andauernden Abhängigkeit vom Hersteller.

Für diese heute gängige Form der Schuldknechtschaft könnte man den Begriff der digitalen Schuldknechtschaft einführen.

Man kann sich auch fragen, ob die ‚Leibeigenschaft‘ nicht auch noch zutrifft. Im Text heißt es unter Art.1.b “Leibeigenschaft, d. h. die Stellung einer Person, die durch Gesetz, Gewohnheitsrecht oder Vereinbarung verpflichtet ist, auf einem einer anderen Person gehörenden Grundstück zu leben und zu arbeiten und dieser Person bestimmte entgeltliche oder unentgeltliche Dienste zu leisten, ohne seine Stellung selbständig ändern zu können“. Im Fall der Programmebeziehung gibt es zwar keine Grundstücke, aber der Programmebenutzer geht mit dem Kauf eine Beziehung zum Hersteller ein, die ihn in vielfacher Weise über die Nutzung im engeren Sinne bindet: so ist die Übergabe von vielen persönlichen Daten samt der damit einhergehenden anhaltenden kontinuierlichen Kontrolle der Aktivitäten ein ‚Dienst‘ an dem Hersteller, der ‚unentgeltlich‘ geleistet wird, ohne dass man diese Beziehung (‚Stellung‘) verändern kann; würde man dies einseitig tun, bekäme man die Daten, Momente des eigenen Selbst, nicht zurück.

Auch hier bietet es sich an, den Begriff der digitalen Leibeigenschaft einzuführen.

In Art. 7.b heißt es, dass “eine Person in sklavereiähnlicher Stellung“ eine solche Person ist, die sich “in einer Rechtsstellung oder Lage [befindet], die auf einer der in Artikel 1 erwähnten Einrichtungen oder Praktiken beruht;“. Die “in Artikel 1 erwähnten Einrichtungen oder Praktiken“ sind z.B. die Schuldknechtschaft und die Leibeigenschaft.

Da mit diesem Text sowohl die ‚Schuldknechtschaft‘ wie auch ‚Leibeigenschaften‘ als Formen der Sklaverei gewertet werden, könnte man analog von der Existenz einer digitalen Schuldknechtschaft und einer digitalen Leibeigenschaft auf die Existenz digitaler Sklaverei schließen.

Nach Art 6.1 1. soll gelten, dass die „Versklavung einer Person oder die Anstiftung einer Person, sich oder eine von ihr abhängige Person durch Aufgabe der Freiheit in Sklaverei zu geben, oder der Versuch dazu oder die Teilnahme daran oder die Beteiligung an einer Verabredung zur Durchführung solcher Handlungen … eine strafbare Handlung nach den Gesetzen der Vertragsstaaten dieses Übereinkommens sein [soll]; …“.

Zu den vielen Unterzeichnerstaaten gehört auch Deutschland (1959). Bislang haben die neuen digitalen Versionen von Sklaverei die Wahrnehmungsschwelle der deutschen Justiz (auch nicht die Justiz anderer Länder) noch nicht überwunden.

Sind wir mittlerweile so an Unrecht gewöhnt, dass wir die alltägliche Praxis der digitale Versklavung einfach so hinnehmen, oder sind diese Überlegungen ‚überzogen‘?

Mensch als Restproblem

Lässt man die Faszination der Oberfläche der neuen digitalen Welt für einen Moment mal weg, und lässt die verdeckten Aushorch- und Gewaltstrukturen auf sich wirken, die neue Unübersichtlichkeit, die neue schier grenzenlosen Manipulierbarkeit, die ungeheure Ausdehnung von Kontrolle und digitaler Sklaverei, dann kann schon einmal ein Gefühl von Hilfslosigkeit entstehen, von Verratensein, von schwacher Endlichkeit. Während die Geräte immer schneller werden, immer mehr Daten mit höchster Geschwindigkeit hin und her bewegen, immer kompliziertere Rechnungen in Sekundenbruchteilen vollziehen, immer ‚gescheiter‘ daherkommen in Spielen, im Quiz, in der Diagnose, in der Beratung …. hat man das Gefühl, man ist lahm wie eine Ente; vergisst so oft so viel; ist streckenweise von Stimmungen, Gefühlen und Emotionen getrieben, fast paralysiert. Hat einen endlichen langsamen Körper; so unförmig, so wenig glanzvoll … Wie soll das enden? Werden die Maschinen in Zukunft alles machen und wir nichts mehr? Wo und wie soll ich morgen noch arbeiten, wenn Kollege Computer schrittweise alles zu übernehmen scheint?

Für Unternehmer scheint es sich allemal zu rechnen: Roboter können preisgünstiger, zuverlässiger und qualitativ besser produzieren. Sie sind viel schneller, sie meckern nicht, sie streiken nicht, sie brauchen keine krankheitsbedingten Auszeiten ….

Künftig werden sich alle Autos, Busse, Straßenbahnen, Züge, Flugzeuge ohne menschliche Fahrer und Piloten bewegen. Riesige Schiffe werden keine menschliche Besatzung haben.

Kriege werden nicht mehr von Soldaten geführt, sondern von Automaten, von Robotern, von Drohnen. Maschinen kämpfen gegen Maschinen. Computerprogramme gegen Computerprogramme. Mit einem Knopfdruck kann ein General eine ganze Armee gegen seine eigene Regierung in Bewegung setzen. Wird irgendwann dann ein durch ein Programm selbständig ausgelöster Befehl ausreichen, dass sich eine automatisierte Roboterarmee gegen ihren eigenen General wendet?

Wozu brauchen wir weiter Menschen in der digitalisierten Welt? Für die Arbeit? Nein. Für den Konsum? Menschen als Konsumenten sterben mangels Einkommen aus, da sie keine Arbeit mehr haben werden. Als Soldaten, Beamte, Verwalter, Manager wurden sie schrittweise ersetzt. Die Künstler leben schon jetzt nur noch als dreidimensionale Kunstfiguren in animierten Filmen und Computerspielen. Kompositionen und Malerei beherrschen die Software-Programme besser als die Menschen. Architektur findet nur noch im Computer statt. Neue Produkte und Pflanzen konzipiert der Computer. Menschen sind zu langsam, zu unzuverlässig, verbrauchen große Ressourcen, erzeugen Abfall, sie sind aggressiv, emotional labil, … sie kosten und sie stören.

Wird der Mensch in der digitalen Welt aussterben? Haben wir uns schon ergeben? Sind wir nicht schon längst eine willenlose meinungslose Masse, die von Regierungen und globalen Konzernen nach Belieben vor sich hergetrieben wird?

Fortsetzung mit Teil 2.

Einen Überblick über alle Artikel von cagent nach Titeln findet sich HIER.

PHILOSOPHIE IM KONTEXT oder: BEGRIFFSNETZE oder: THEORIENETZWERKE

Achtung: Es hat sich gezeigt, dass diese Version einen grundlegenden Fehler enthält! Siehe am Ende des Textes den Link auf eine verbesserte Version.

 

(1) In dem Vortrag in Bremerhaven ist die Verzahnung von Philosophie und Wissenschaft hevorgehoben worden. Ansatzweise wurde skizziert, wie eine bewusstseinsbasierte Philosophie als das primäre Denken innerhalb seines Denkraumes einen ‚Unterraum‘ spezifizieren kann, der sich über die spezielle Teilmenge der ‚empirischen Phänomene‘ [PH_Emp] definiert bzw. umgekehrt, wie man ausgehend von den empirischen Disziplinen über die Frage nach den notwendigen Voraussetzungen zu einem größeren Zusammenhang kommen kann, der letztlich mit dem philosophischen Denken zusammenfällt. Versucht man, die begrifflichen Verhältnisse zwischen den verschiedenen hier einschlägigen Disziplinen zu klären, dann wird man alsbald feststellen, dass diese bei den meisten nicht ganz klar sind; dies betrifft die ganze ‚Community‘. Im Folgenden ein weiterer Versuch, die hier geltenden grundsätzlichen Verhältnisse transparent zu machen.

 

(2) Die grundsätzliche Idee (die ich seit mehr als 20 Jahren immer wieder mal auf unterschiedliche Weise versucht habe, — in erster Lnie mir selbst — zu verdeutlichen) ist im Schaubild Nr.1 angedeutet.

 

 

Gesamtrahmen Philosophie und Wissenschaften

 

 

(3) Nimmt man seinen Ausgangspunkt von existierenden empirischen Disziplinen wie Physik [Phys], Chemie [Chem], Biologie [Biol] usw. dann sind diese dadurch gekennzeichnet, dass sie aufgrund spezifischer Fragestellungen und spezifischer Messverfahren entsprechend verschiedene ‚Messwerte‘ gewinnen.

 

(4) Hierbei ist aber zu beachten, dass die empirischen Messwerte zwar – idealerweise – unabhängig von einem bestimmten Körper oder Bewusstsein ‚gewonnen‘ werden, dass sie aber nur in dem Maße in eine wissenschaftliche Theoriebildung eingehen können, als die Messwerte von Menschen auch ‚wahrgenommen‘ werden können, d.h. nur insoweit, als die handlungs- und technikbasierten Messwerte zu ‚bewussten Ereignissen‘ werden, zu ‚Phänomenen‘ [PH]. Als ‚Phänomen‘ ist ein Messwert und ein Zahnschmerz nicht unterscheidbar, allerdings haben sie verschiedene ‚Ursachen der Entstehung‘, die sich in einer ‚Reflexion‘ erschließen lassen. In dem Masse, wie man diese Unterscheidung durchführen kann, kann man dann innerhalb der ‚allgemeinen‘ Menge der Phänomene PH eine spezielle Teilmenge der ’speziellen‘ Phänomene ausgrenzen, also PH_Emp PH.

 

 

(5) In diesem Sinne kann man sagen, dass die Menge der empirischen Phänomene sich bezüglich ihrer ’speziellen Herkunft‘ von allen anderen Phänomenen unterscheiden und dass die verschiedenen empirischen Disziplinen sich diese spezielle Teilmenge auf unterschiedliche Weise ‚aufteilen‘. Idealerweise würde man sich die Menge der empirischen Phänomene PH_Emp zerlegt denken in endliche viele disjunkte Untermengen. Ob die tatsächlichen Messverfahren mitsamt den daraus resultierenden Messwerten real vollständig disjunkt sind, ist aktuell offen; spielt für die weiteren Überlegungen zunächst auch keine wesentliche Rolle. Wichtig ist nur, dass in diesem Zusammenhang nur dann von empirischen Daten wie z.B. ‚psychologischen Daten‘ DATA_SR gesprochen werden soll, wenn es reale Messwerte von realen Messvorgängen gibt, die von einem Menschen wahrgenommen werden können und dieser diese Phänomene als entsprechende empirische Phänomene PH_Emp_x interpretiert (das ‚x‘ steht hierbei für die jeweilige Disziplin).

 

(6) Wie in vorausgehenden Blogeinträgen schon mehrfach festgestellt, bilden empirische Daten DATA_x als solche noch keine wirkliche Erkenntnis ab. Diese beginnt erst dort, wo Verallgemeinerungen vorgenommen werden können, Beziehungen erkennbar sind, regelhafte Veränderungen, usw. Die Gesamtheit solcher struktureller Eigenschaften im Zusammenhang mit Daten nennt man normalerweise eine ‚Theorie‘ [TH]. Ob und inwieweit alle heutigen empirischen Disziplinen wirklich systematisches Wissen in Form von expliziten Theorien TH_x entwickeln, steht hier nicht zur Diskussion (es gibt sicher viel weniger explizite Theoriebildung als man sich wünschen würde. Die einzige Disziplin, von der man den Eindruck hat, dass sie überwiegend durch formale Konstrukte begleitet wird, die den Anspruch von Theorien erfüllen, ist die moderne Physik. Alle anderen Disziplinen fallen hinter das Ideal mehr oder weniger weit zurück.).

 

(7) Solange man sich nun innerhalb einer ganz bestimmten Disziplin bewegt, ist die Welt — in gewissem Sinne – ‚in Ordnung‘: man weiß wie man misst und man hat elementare Techniken, wie man Daten strukturiert. Fängt man an, Fragen nach den ‚Voraussetzungen‘ dieser fachspezifischen Theoriebildung zu stellen, nach der Angemessenheit der verwendeten Methoden, wird es schwierig, da für solche Fragen strenggenommen kein Instrumentarium verfügbar ist (Warum und wieso sollte ein Chemiker sich Fragen nach den Grundlagen der Erkenntnis stellen, aufgrund deren er überhaupt etwas erkennt, oder nach dem Problem der sprachlichen Bedeutung, wenn er über chemische Sachverhalte spricht, über die Angemessenheit seiner Begrifflichkeit für den zu untersuchenden Gegenstand, usw.). Noch schwieriger wird es, wenn es um mögliche Wechselwirkungen zwischen verschiedenen Theorieansätzen geht: ob und wie verhalten sich die Daten und theoretischen Modelle zwischen z.B. beobachtetem Verhalten in der Psychologie TH_SR mit zeitgleichen Messungen im Körper TH_Bd oder spezieller im Nervensystem TH_NN? Wann darf ich denn überhaupt von einer Theorie sprechen? In welchem Sinne kann ich Theorien TH_x und TH_y vergleichen? Diese – und viele andere – Fragen gehen weit über die fachspezifischen Fragestellungen hinaus, verweisen auf allgemeine fachübergreifende Zusammenhänge.

 

(8) Im deutschen Sprachraum gab es in der Zeit von ungefähr 1970 bis 1990 eine Phase, in der man verstärkt von ‚Wissenschaftstheorie‘ sprach als jener ‚Metadisziplin‘, die die allgemeinen Eigenschaften und Randbedingungen von ‚Theorien‘ untersucht und klärt. Im englischen Sprachraum nannte man dies ‚Philosophy of Science‘ (allerdings mit einer nicht ganz deckungsgleichen Bedeutung). Alle diese Strömungen haben – so scheint es – bis heute keinen nachhaltigen Einfluss auf den ’normalen Wissenschaftsbetrieb‘ nehmen können; eher ist das Thema sogar wieder rückläufig. Zwar bräuchte man es aus methodischen Gründen dringen, aber keiner will dafür Geld ausgeben.

 

(9) Die deutschsprachige Wissenschaftstheorie hatte den Nachteil, dass sie zwar versuchte, disziplinenübergreifend strukturelle Eigenschaften von Theorien zu klären, sich aber letztlich weigerte, sämtliche Voraussetzungen (einschließlich ihrer eigenen) zu reflektieren, d.h. die Wissenschaftstheorie nahm zwar einerseits gegenüber den Fachdisziplinen allgemeine Eigenschaften von Denken, Folgern, Sprechen, Messen usw. in Anspruch, die über die engen Fachdisziplinen hinausgehen, weigerte sich aber, diesen Anspruch in letzter Konsequenz zu reflektieren und auszuweisen (auch nicht die Erlanger Schule und die sogenannten Konstruktivisten). Eine solche grundlegende Reflexion war und blieb die Domäne der klassischen Philosophie, von der sich die Wissenschaftstheorie panisch abzugrenzen versuchte.

 

(10) So sehr eine gesunde Kritik an der klassischen Philosophie nottat, eine vollständige Verdrängung der philosophischen Aufgabenstellung und Denkweise wirkte aber wie eine ‚Überreaktion‘; diese hatte zur Folge, dass sich die Wissenschaftstheorie von ihren eigenen Voraussetzungen mittels einer klassischen ‚Verdrängung‘ zu befreien suchte, sich dadurch aber entscheidende Aspekte vergab.

 

 

(11) Wie das Schaubild zeigt, gehe ich davon aus, dass die im Erleben wurzelnde Reflexion der primäre Ausgangspunkt für jede Art von spezialisierendem Denken ist. Selbst eine empirische Disziplin ist im Raum der bewussten Erlebnisse, im Raum der Phänomene, verankert, und was immer ein empirischer Wissenschaftler denkt, er denkt im Rahmen der Denkmöglichkeiten, die ihm über das Bewusstsein und die ‚an das Bewusstsein gekoppelten Subsysteme‘ verfügbar sind. Andere hat er gar nicht. Ein Wissenschaftstheoretiker, der über das theoretische Denken von Fachdisziplinen forschen will, ist auch nicht besser dran. Auch er ist an den Phänomenraum als primärem Bezugssystem gebunden und auch er nutzt jene allgemeinen Reflexionsmöglichkeiten, die im Bewusstseinsraum generell verfügbar sind. D.h. jeder Versuch, eine irgendwie geartetes geordnetes Denken — sei es fachwissenschaftlich oder wissenschaftstheoretisch – als solches auf seine Voraussetzungen und Wechselwirkungen hin zu befragen, muss auf dieses ‚primäre Denken‘ zurückgehen und es für die Erkenntnis nutzen. Dieses primäre Denken aber ist genau das philosophische Denken, das auf der einen Seite mit dem alltäglichen Denken verschwimmt, und auf der anderen Seite in Wissenschaftstheorie oder gar Fachwissenschaft übergeht.

 

(12) Von der Intention her hat sich ‚Philosophie‘ immer als solch ein ‚erstes Denken‘ verstanden, das alles andere Denken umfassen sollte. In der konkreten Ausformung eines solchen ersten Denkens gab es aber immer vielfältige und starke Unterschiede. Generell kann man die Tendenz beobachten, dass das philosophische Denken sich entweder vom alltäglichen und wissenschaftlichen Denken ‚zu weit entfernt‘ hat oder aber umgekehrt diesem ‚zu nah‘ kam. Im letzteren Fall büßte Philosophie ihre kritisch-klärende Funktion ein.

 

(13) Will Philosophie beides zugleich realisieren, kritische Distanz wie auch kenntnisreiche Nähe, muss das philosophische Denken sowohl die ‚Form‘ eines wissenschaftlichen Denkens hinreichend klären wie auch die eigenen Erkenntnis — sofern überhaupt strukturierbar – entsprechend explizieren. Das philosophische Denken als ‚erstes Denken‘ wird zwar niemals seinen eigenen Anteil zugleich vollständig und korrekt explizieren können (das liegt primär an der Struktur des Denkens selbst sowie an der Verwendung von Sprache), aber es kann den Zusammenhang der einzelwissenschaftlichen Theorieansätze sowie deren allgemeinen erkenntnistheoretischen Voraussetzungen soweit explizieren, dass klar wird, (i) was ist überhaupt eine Theorie TH_x, (ii) welche erkenntnistheoretischen Voraussetzungen müssen für eine bestimmte Theorie TH_x berücksichtigt werden, (iii) wie kann man das Verhältnis von Theorien beschreiben XREL(TH_x, TH_y), (iv) wie können Objektbeschreibungen aus unterschiedlichen Theorien (z.B. Eigenschaften von Neuronen beschrieben in einer neurowissenschaftlichen Theorie TH_nn, und Eigenschaften eines beobachtbaren Verhaltens in einer psychologischen Theorie TH_sr) aufeinander bezogen werden, usw.

 

(14) Fordern muss man aber auch, dass das philosophische Denken seine Inhalte, soweit sie explizierbar sind, auch in Form von Daten DATA_ph kenntlich macht, und, darauf aufbauend, verdeutlicht, welche Strukturen TH_ph das philosophische Denken vermeintlich besitzt bzw. benutzt, um die Möglichkeit und das ‚Funktionieren‘ der Einzeltheorien zu ‚erklären‘. In gewisser Weise muss die Philosophie genauso ein ‚Modell‘ ihres Gegenstandes bauen wie dies die anderen Wissenschaften auch tun. Im Fall der Philosophie geht es um den Menschen selbst, speziell um den Menschen, insofern er ‚erkennt‘, ‚Wissen‘ entwickelt‘, er ’spricht‘, und vieles mehr. Und natürlich könnte (bzw. sie müsste es!) die Philosophie — wie alle anderen Disziplinen auch – Computermodelle benutzen, um ihr theoretisches Modell vom erkenntnisfähigen und ethisch handelndem Menschen zu explizieren. ‚Computergestützte Philosophische Theorie‘ (etwa ‚computational philosophy‘) ist nicht nur kein Gegensatz sondern ein absolutes Muss! Ohne solche Modelle hat eine moderne Philosophie kaum eine Chance, die zu behandelnde Komplexität angemessen beschreiben zu können.

 

 

Eine korrigierte Version dieses Beitrags findet sich hier.

 

 

Einen Überblick über alle bisherigen Beiträge findet man hier.

 

 

(15) Weitere Details in Fortsetzungen bzw. im Rahmen meiner online-Skripte zur allgemeinen Lerntheorie.