„Technische Superintelligenzen werden die Menschheit bedrohen“ – Wie kann man eine so absurde Behauptung aufstellen?

Science-Fiction-Visionen von intelligenten oder gar superintelligenten Maschinen haben eine lange Historie. Besonders in der Hype-Phase der so genannten „Künstlichen Intelligenz (KI)“ in den 1960-1980er Jahren waren Behauptungen en vogue, dass Computeranwendungen die Menschheit in Bezug auf ihre Intelligenz bald einholen oder gar überholen werden – mit unabsehbaren Folgen und Bedrohungen für die Menschheit. “Once the computers got control, we might never get it back. We would survive at their sufferance. If we’re lucky, they might decide to keep us as pets”, meinte z.B. Marvin Minsky im Jahr 1970.

Als Zeithorizont für solche technische Superintelligenzen werden gerne ca. 10-30 Jahre angegeben – egal wann so etwas behauptet wurde. Dieser Zeitrahmen ist anscheinend nah genug, um genug Aufmerksamkeit zu erregen und weit genug weg, um für die Gültigkeit der Behauptungen nicht mehr gerade stehen zu müssen.

Ich habe den Eindruck, dass Behauptungen über technische Superintelligenzen aktuell wieder eine Hochzeit erleben. Dabei werden sie nicht nur von Hollywood, sondern auch von Wissenschaftsjournalisten dankbar aufgegriffen und verwertet. Dass sich frühere Prognosen dieser Art als falsch herausgestellt haben, spielt dabei keine Rolle. Gerne wird auf „Experten“ verwiesen, die sich diesbezüglich (alle) längst einig seien und nur im exakten Zeitpunkt noch nicht ganz sicher seien.

Durch die Frage wann es so weit sei, wird die Diskussion um das „ob“ meiner Meinung nach völlig vernachlässigt. Ich bin Informatiker. Ich beschäftige mich seit über 30 Jahren mit KI, entwickle seit mehreren Jahren KI-Anwendungen für den Unternehmenseinsatz und veröffentliche darüber Artikel und Bücher. Demnach halte ich mich für einen KI-Experten. Und nach meiner Meinung sind Behauptungen von technischen Superintelligenzen absurd.

Derzeit arbeite ich in einem KI-Projekt, in dem wir Software für Ärzte entwickeln, die Krebspatienten behandeln. Ein schöner Nebeneffekt der Arbeit an diesem Projekt ist, dass ich mein Schulwissen in Biologie und insbesondere Genetik auffrischen durfte. Während das früher für mich trockener Schulstoff war, kann ich jetzt nachvollziehen, warum die Ursprünge des Lebens Menschen faszinieren. Ich hatte einige Aha-Effekte, was sie Vielschichtigkeit, Vernetzung und Dynamik von Prozessen des natürlichen Lebens betrifft. Ich möchte diese laienhaft kurz mitteilen, um sie anschließend KI-Anwendungen gegenüberzustellen.

Es gibt chemische und physikalische Grundsätze, nach denen sich Atome zu Molekülen bzw. Molekülketten zusammensetzen – quasi mechanisch nach festen, einfachen Regeln. Und diese einfachen Molekülketten verhalten sich wie kleine Maschinen, die spezielle Aufgaben verrichten. Da gibt es Maschinen, die schneiden die DNA in der Mitte auf; dann gibt es welche, die kopieren die DNA-Information auf RNA; es gibt welche, die prüfen, ob es Kopierfehler gegeben hat und korrigieren diese (aber nicht alle Fehler – es soll ja noch Raum für Mutation bleiben); dann gibt es Maschinen, die lesen RNA, interpretieren sie nach dem genetischen Code und bauen daraus neue Molekülketten: Proteine, aus denen Zellen zusammengesetzt werden.

Wenn ich diese physikalisch-biologischen Vorgänge betrachte frage mich: findet hier gerade der Übergang von toter Materie zum Leben statt? Wo genau?

Und nun geht es weiter: Die Proteine bilden Zellen – kleine Maschinen, die ganz unterschiedliche Aufgaben erfüllen. Manche transportieren Sauerstoff; Manche andere stürzen sich auf Schädlinge und bekämpfen diese; Wiederum andere bauen feste Knochen. Und weiter geht es: Zellen zusammen bilden Organe mit klaren Aufgaben. Eines verdaut unser Essen, eines pumpt Blut und ein Organ vollführt erstaunliche Denkleistungen. Und alle Organe zusammen formen einen Menschen. Dieser wird gezeugt, geboren (jeder der eigene Kinder hat, weiß von der Faszination der Geburt), wächst, lernt, handelt intelligent und stirbt wieder. Viele Menschen zusammen bilden Kulturen, die entstehen, Wissen und Fähigkeiten entwickeln, und wieder vergehen. Diese Kulturen werden von einer intelligenten Spezies, genannt Homo sapiens, geformt. Diese einzelne Spezies entstand durch Evolutionsprozesse, denen sie kontinuierlich unterworfen ist. Wie die meisten Spezies wird sie irgendwann vergehen. Alle Spezies zusammen bilden das Leben auf dieser Erde. Und die Erde ist nur ein einziger Planet eines Sonnensystems einer Galaxie des Universums, über dessen mögliche andere intelligente Lebensformen wir nichts wissen.

Alle diese Ebenen, die ich laienhaft angedeutet habe, sind in sich hoch komplexe Systeme, die alle miteinander verwoben sind. Und vermutlich gibt es genauso viele Ebenen im submolekularen Bereich. Niemand kann ernsthaft behaupten, das komplexe Zusammenspiel über all diese miteinander vernetzten Ebenen auch nur annähernd, geschweige denn vollständig zu begreifen. Was wir heute zu wissen glauben, wird morgen als überholt erkannt und wirft viele neue Fragen für übermorgen auf. Im Ernst zu glauben, dass die unfassbare Komplexität des Lebens, sowie der Intelligenz als einer Ausdrucksform des Lebens, durch Computeranwendungen abgebildet oder gar weit übertroffen werden könnte, scheint mir eine extreme Unterschätzung der Natur oder eine groteske Überschätzung von Wissenschaft und Technik zu sein.

Schauen wir uns doch einmal KI-Anwendungen im Detail an. KI-Anwendungen werden stets zu einem speziellen Zweck entwickelt. So kann z.B. IBMs Deep Blue Schach spielen und Googles AlphaGo kann Go spielen. Beide Systeme übertreffen dabei die menschlichen Welt- und Großmeister. IBM Watson kann Fragen des allgemeinen Lebens beantworten – selbst wenn sie knifflig und mit Wortwitz gestellt sind – und schlägt alle menschlichen Champions der Quizshow Jeopardy! Selbstfahrende Autos erreichen ihre Ziele unter korrekter Berücksichtigung der Verkehrsregeln – vermutlich bereits in naher Zukunft sicherer als menschliche Fahrer.

All dies sind faszinierende Beispiele für mächtige KI-Anwendungen, die ich persönlich vor 20 Jahren nicht für möglich gehalten hätte. Aber sicher ist auch: Deep Blue wird niemals von sich aus anfangen, Go zu spielen, oder Quizfragen zu beantworten. IBM Watson kann nicht Schachspielen und wird es auch nicht lernen, egal in wie viel Quizshows die Anwendung eingesetzt wird. Und das selbstfahrende Auto wird nicht plötzlich auf die Idee kommen, sich für das Präsidentenamt zu bewerben, die Wahl gewinnen, anschließend die Demokratie und schlussendlich die Menschheit abschaffen. Das ist einfach absurd und gehört in den Bereich der Fiktion.

Alle diese KI-Anwendungen wurden von Informatikern und anderen Ingenieuren entwickelt. Intern werden u.A. Techniken des Machine Learning (ML) eingesetzt, meist das sogenannte „Supervised Learning“. Dabei werden Beispieldaten verwendet. So werden z.B. viele unterschiedliche Bilder von Stoppschildern, inklusive der Information, dass es sich jeweils um ein Stoppschild handelt, geladen. Mithilfe statistischer Methoden werden Modelle entwickelt, die es erlauben, bei neuen Bildern mit einer großen Wahrscheinlichkeit korrekt zu erkennen, ob ein Stoppschild abgebildet ist oder nicht. Dies kann dann in selbstfahrenden Autos für Fahrentscheidungen genutzt werden.

Also: die Anwendung lernt nicht von selbst, sondern mittels Eingabe von Beispielen durch Ingenieure („Supervisor“ im Supervised Learning). Wenn die Erkennungsraten nicht gut genug sind, ändern die Ingenieure entsprechende Parameter und starten das Lernverfahren erneut. Mit menschlichem Lernen kann das kaum verglichen werden.

Eine KI-Technik, die etwas mehr Ähnlichkeit zum Lernen eines Menschen hat, ist das sogenannte „Reinforcement Learning“. Dabei wird eine Umgebung eingesetzt, in der die Computeranwendung selbst Beispiele erzeugen und ausprobieren kann. Somit ist es möglich, ein Modell zu erzeugen, ohne dass dafür ein menschlicher Supervisor nötig ist. Zum Beispiel kann man ein Schachprogramm immer wieder gegen sich selbst (bzw. gegen ein anderes Schachprogramm) spielen lassen und die Machine Learning Verfahren auf die Verläufe und Ergebnisse dieser Spiele anwenden. Was jedoch Ingenieure vorgeben müssen, ist eine sogenannte Nutzenfunktion, z.B. „es ist positiv, ein Schachspiel zu gewinnen und es ist negativ, eines zu verlieren“. Würde man aus Spaß das Vorzeichen der Nutzenfunktion vertauschen, so würde die KI-Anwendung trainiert, Schachspiele möglichst schnell zu verlieren. Für die Anwendung wäre das überhaupt kein Problem. Sie spürt ja gar nichts, auch nicht die Auswirkungen eines verlorenen Schachspiels. Den Anreiz, eine Anwendung zu entwickeln, die Schachspiele auch gewinnt, haben die Ingenieure. Sie geben alles Notwendige von außen vor – nicht die KI-Anwendung aus sich heraus.

Im Gegensatz zur KI-Anwendung haben Menschen jedoch einen Körper. Babys verspüren Hunger und lernen von sich aus, sich so zu verhalten, dass sie etwas zu essen bekommen (Schreien hilft meist). Kinder brauchen den Zuspruch und die Zuneigung der Eltern und lernen sich so zu verhalten, dass sie Zuspruch und Zuneigung auch erhalten. Jugendliche und junge Erwachsene lernen, wie sie sich in ihrer Gesellschaft zu verhalten haben, um zu überleben – so unterschiedlich Gesellschaften auch sein können. Sie lernen aus sich heraus, weil sie Körper und Geist haben und wirklich in ihrer Umgebung leben – quasi die Resultate ihres Handelns hautnah spüren. KI-Anwendungen werden im Gegensatz dazu ausschließlich von außen durch Ingenieure gestaltet, auch wenn Techniken des Machine Learning eingesetzt werden.

KI-Anwendungen laufen auf Computer-Hardware. Wie die Anwendungen ist auch die Hardware von Ingenieuren entwickelt worden. Auch wenn wir die Metapher der „Generationen“ verwenden (wir reden z.B. von einer „neuen Prozessorgeneration“), hat dies selbstverständlich nichts mit Fortpflanzung in der Natur zu tun. Ein Prozessor kommt nicht auf die Idee, einen neuen Prozessor zu entwickeln und er zeugt auch keinen Prozessor, der mittels Evolution plötzlich besser ist als sein Vater.

Vergleichen wir nun KI-Anwendungen mit biologischem, intelligentem Leben: Auf der einen Seite beobachten wir ein unfassbar komplexes, vielschichtiges, dynamisches, selbstorganisierendes System – die vielen Schichten bzw. Ebenen habe ich laienhaft oben angedeutet. Auf der anderen Seite haben wir ein menschengemachtes, zweischichtiges System, bestehend aus KI-Anwendung und Computer-Hardware. Beide Schichten sind in sich starr und nicht selbstorganisierend. Die Dynamik (neue Hardwaregenerationen, bessere Algorithmen etc.) kommt von außen durch menschliche Ingenieursleistung. Wie kann man nun nüchtern betrachtet zur Behauptung kommen, dass dieses starre, menschengemachte System irgendwie plötzlich und von selbst dynamisch, selbstorganisierend, lebendig und intelligent wird: eine technische Superintelligenz, welche die Menschheit bedrohen kann? Ich kann beim besten Willen nicht den allerkleinsten Ansatz dafür sehen.

Bleibt die Frage, warum es immer wieder (einzelne) Fachexperten wie Marvin Minsky gibt, die solche, aus meiner Sicht absurden, Behauptungen aufstellen. Ist es ihr Ziel, Aufmerksamkeit zu erzeugen? Können sie eventuell daraus finanziellen Nutzen zu ziehen, z.B. in Form von Fördergeldern (das hat in den 1980er Jahren prima funktioniert)? Glauben sie wirklich daran und sorgen sie sich um die Menschheit? Sind solche ernst gemeinten Behauptungen vielleicht der Ausdruck einer schon fast ideologischen Wissenschafts- und Technikgläubigkeit? Ich weiß es nicht.

Dabei sind die Fortschritte der KI, vor allem in den letzten 20 Jahren, in der Tat höchst beeindruckend. Und tatsächlich bergen sie neben zahlreichen Chancen auch größte Risiken, wenn die Techniken blauäugig angewendet werden. In der Ausgabe 2/2017 der Communications of the ACM schreibt Alan Bundy in seinem Viewpoint sehr pointiert und aus meiner Sicht richtig: „Smart machines are not a threat to humanity. Worrying about machines that are too smart distracts us from the real and present threat from machines that are too dumb“.

Menschen überlassen KI-Anwendungen zunehmend wichtige Entscheidungen, obwohl selbstverständlich keine Anwendung perfekt ist. Bei selbstfahrenden Autos mag das durchaus sinnvoll sein, sobald diese nachweislich sicherer fahren als Menschen. Aber wirklich gefährlich wird es bei Entscheidungen, deren Auswirkungen kein Mensch mehr überblicken kann. Ein viel diskutiertes Gebiet ist der Hochfrequenzhandel, bei dem KI-Anwendungen Kauf- und Verkaufsentscheidungen autonom treffen, ohne dass heute die Auswirkungen auf das gesamte Wirtschaftssystem überblickt werden können. Noch deutlicher wird das im militärischen Bereich, wenn KI-Anwendungen prognostizieren sollen, ob ein Angriffsfall vorliegt und im Extremfall in Sekundenbruchteilen autonom über einen (möglicherweise nuklearen) Gegenschlag entscheiden sollen. Über solche KI-Anwendungen wurde bereits 1983 im Rahmen der Strategic Defense Initiative (SDI) intensiv diskutiert (bezeichnenderweise während der Hochzeit des KI-Hypes); und solche Diskussionen kommen leider immer wieder auf die Tagesordnung.

Wenn eine überhöhte Technik- und Wissenschaftsgläubigkeit nur dazu führt, absurde Behauptungen über technische Superintelligenzen aufzustellen, so ist das nicht weiter schlimm – sie provozieren nur harmlose akademische Diskussionen oder inspirieren amüsante Science Fiction Filme. Wenn wir aber als Gesellschaft – und besonders die politischen und wirtschaftlichen Entscheider – die Grenzen von Wissenschaft und Technik nicht klar sehen und folglich KI-Anwendungen Entscheidungen überlassen, die zwingend von verantwortlichen Menschen getroffen werden müssen, so kann dies fatale Folgen für unsere Gesellschaft haben.

Anmerkung:

Im Anschluss an diesen Artikel gab es eine Vortragsveranstaltung in der Reihe Philosophie Jetzt im Gespräch am 28.September 2017

5 Gedanken zu „„Technische Superintelligenzen werden die Menschheit bedrohen“ – Wie kann man eine so absurde Behauptung aufstellen?

  1. Hallo und vielen Dank an https://www.cognitiveagent.org/author/hardbern/ für den Dankanstoß!
    Kurz zu meinem Hintergrund: ich habe selbst Software entwickelt, als Software-Architekt an großen Systemen mitgebaut und sehr früh in meinem Leben angefangen mich für Computer zu interessieren. Da ich derzeit nicht mehr in der IT tätig bin, ganz zu schweigen von KI, bin ich nicht wirklich up-to-date. Dennoch verfolge ich die Entwicklung, soweit sie der Öffentlichkeit zugänglich ist.
    Da ich jedoch Soziologie studiert habe, und sich meine wissenschaftliche Arbeit gegen Ende meines Studiums stark auf die Theorie sozialer Systeme von Niklas Luhmann gestützt hat, fließt hier sich auch systemtheoretisches Denken mit ein.

    Ich persönlich sehe die angesprochenen Dinge nicht so „entspannt“ … möchte ich flapsig sagen. Und in aller Kürze ein paar Gedanken dazu:

    – ich finde das Ineinanderwirken der unzähligen lebensermöglichenden Systeme mit jeweils autonomer Selbstorganisation sehr schön beschrieben. Und dass unser Wissen darüber sehr begrenzt ist. Allerdings teile ich die Schlussfolgerung nicht, dass dieses mehrschichtige Ökosystem für Autonome Künstliche Intelligenzen noch in weiter Ferne sei. Denn unsere informationstechnischen Ökosysteme sind längst soweit autonome Selbstorganisation auf höheren Ebenen entkoppelt von Hardware und Prozessoren zu ermöglichen. Cloud-basiertes On-Demand-Computing basiert genau darauf. Und selbstreplizierende Schadsoftware wie Computerviren stützt sich auch darauf. Wenn ein selbstwartendes KI-System auf einer hinreichend hohen Abstraktionsschicht verteilt läuft, dann reicht meine Fantasie aus, um diese Begrenzung nicht mehr für relevant zu halten. Ein Beispiel wäre ein System, das sich seine Rechenzeit durch das Minen von Bitcoins „finanziert“ uns sich so benötigte Kapaztitäten hinzukaufen kann. Oder durch Trading. Oder eben selbstlernend nach Sicherheitslücken sucht und dabei auf vorhandene APIs zurückgreift. Und und und. Vielleicht zuviel Fantasie, aber ich glaube der Gedanke ist klar geworden

    – der nächste Gedanke dazu wäre, dass autonome künstliche Intelligenz (das muss noch lange keine Allgemeine Künstliche Intelligenz sein!) immer in einem sozialen Kontext operiert, und diesen auch für ihr Funktionieren einsetzen wird. Dieser ist vorausgesetzt und bei hinreichender Größe formbar. Unser derzeitiger Operationsmodus als Zivilisation ist dabei nicht selbstreflektiert genug, um diesen selbsterhaltend steuern zu können, wie etwa die Klima-Problematik zeigt. Die Gefahr durch das Ko-Operieren einer KI ließe sich wohl genausowenig eindämmen. Würde etwa im Beispiel oben eine KI sich aufgrund eines eigenen Bitcoin-Guthabens hinsichtlich ihres Ressourcen-Bedarfs unanbhängig machen, so wären wir Menschen sicher nicht in der Lage Bitcoin einfach abzuschalten, und ihr diese Ressourcenverfügung wieder wegzunehmen. Oder anderes Beispiel: besonders im militärischen Bereichen entstehen gerne „virale“ Techologien, die vielleicht mit enormem Aufwand eingedämmt werden können, aber nicht einfach wieder verschwinden. Mein Standardbeispiel für eine solche virale Technologie sind Atomwaffen, deren Existenz dem Zugriff der Menschheit entzogen erscheint. Damit müssen wir fertigwerden, und etwa bei der Schaffung von selbstorganisierenden Schwarmwaffen auf Drohnenbasis bedenken. Kommen werden sie deshalb auf jeden Fall. Und dann auch bleiben. Und welche Werte wir diesen Systemen für das „unsupervised learning“ mitgeben, daran möchte ich lieber nicht denken. Ich befürchte auch, dass die Entwickler es für eine gute Idee halten, eine Schnittstelle zu Big-Data-Systemen wie sozialen Netzwerken zu schaffen, damit sie ein möglichst umfassendes Umgebungswissen erhalten …

    Soviel zu den Gefahren, die noch 10, 20, 30 oder auch 50 Jahre in der Zukunft liegen mögen, mir persönlich im Gegensatz zum Autor nicht zu weit hergeholt erscheinen. Dem letzten Absatz möchte ich dennoch rundum zustimmen: hierin liegt die konkrete Gefahr der nächsten Jahre als Gesellschaft, hinsichtlich jeder Art von Systemen, die mit eigener Logik operieren. Zu Befürchten ist, dass sich bei entscheidungsmächtigen KI-Systemen die Probleme wiederholen, die wir schon jetzt mit Systemen wie etwa dem globalen Finanzsystem haben, das unkontrollierbar und schwer beherrschbar erscheint, und periodisch Katastrophen produziert.

  2. Pingback: Künstliche Intelligenz sogar in der Psychotherapie – Wohin soll das noch führen? Prof. Humm -Darmstadt. Memo | PHILOSOPHIE JETZT

  3. Zum Thema “Superintelligenz“:

    Ich stimme Cagent in vollem Umfang zu und finde es, nebenbei bemerkt, äußerst angenehm in dieser Hinsicht einen Bruder im Geiste in ihm zu erkennen.

    Die Apokalypse und das Erscheinen des Messias scheinen eben immer noch zusammen zu gehören. Allerdings kann man davon ausgehen, das vielen die Heute in der Diskussion über Superintelligenz die Stimme erheben, die technizide Umformatierung des Motivs von der “Ankunft des Herrn am jüngsten Tag“ weitgehend entgeht. Am nächsten kommt dem noch der israelische Autor Harari alleine schon durch den Titel seines neuesten Buchs, ‚Homo deus‘ ( https://www.perlentaucher.de/buch/yuval-noah-harari/homo-deus.html ). Aber: Wo Parusie ist, da ist auch der Aufschub und der hat sich von je her als fruchtbare Herausforderung angeboten für alle die mit der Kunst der Hermeneutik ihr Geld verdienen. So gesehen sind die Job-Chancen für Propheten nicht schlecht.

    Parusie hin oder her, die ungeheure eschatologische Potenz dieses Themas wird, so meine Vermutung, die wirklich interessanten und die wirklich gefahrvollen Aspekte der technischen Intelligenz weitgehend verdecken. Marktschreier und Propheten werden sich ihre Anteile der öffentlichen Aufmerksamkeit (und des Venture-Kapitals) mit hybriden Slogans zu sichern wissen. siehe ( https://su.org/ )

    Für mich sind die Fragen nach KI und die spekulative Frage der “SKI“ deshalb so interessant weil in der Auseinandersetzung mit ihnen die Frage nach dem was “ICH“ (Mensch) eigentlich bin, sehr intensiv und sehr viel ernster als bisher neu gestellt wird. Das es so scheint als würde eine Maschine – letzendlich nichts weiter als das was wir bisher als ‚in-Form gesetzte Materie‘ bezeichneten – das leisten was wir als die spezifische Differenz des Menschen schlechthin gewohnt waren anzunehmen, kann nur als Herausforderung angenommen werden sich die Frage nach dem ‚Bild des Menschen‘ immer wieder neu zu stellen.

    Aber damit erschöpft sich selbstverständlich nicht die philosophische Auseinandersetzung mit dem Thema. Es werden auch die nüchternen technologischen Fortschritte stärker als bisher enorme Auswirkungen auf die Art und Weise haben wie Menschen überall auf der Welt leben. Es wird noch schneller und tiefgreifender als bisher, zu großen Umformatierungen der politischen und sozialen Realität kommen. Der erneute, in seiner Art noch nicht genau zu bestimmende, Eingriff in den Zeithorizont des Menschen wird durch die fortschreitende Implementierung von KI-Systemen vieles verändern. Ob das zu größerer Freiheit für jeden Einzelnen wird oder ob Spielräume wie bisher restlos von der Maschine des Kapitalismus absorbiert werden ist noch nicht entschieden. Auch deshalb kann eine realistische Auseinandersetzung mit diesem Thema nicht aufgeschoben werden. Das gleiche gilt für die politische Frage der Macht. BIG DATA bietet sich selbst auf einer technischen Ebene die sehr viel tiefer liegt als die von autonomen “intelligenten“ Systemen als Instrument der Kontrolle über Geist und Körper an. Algorythmen optimieren dieses Instrumentarium stetig.

    Zuletzt noch eine Anmerkung zur Hybris die immer deutlicher in vielen Publikationen zur KI generell zum Ausdruck kommt und die weitgehend von der Rezeption und Kritik kaum noch erkannt wird. Diese Hybris zeigt auf der Rückseite des Spiegels im Grunde welch kleinmütiges, verzerrtes und reduziertes ‚Bild des Menschen‘ als Dispositiv den ganzen Diskurs bestimmt.

    • Hinweis an pagan: der Autor des Artikels war in diesem Fall nicht cagent, sondern ein neuer Autor hardbern! Die Macht der Gewohnheit 🙂 Ja, es wäre vielleicht eine gute Idee gewesen, den neuen Autor ein bisschen einzuführen … aber so ist dies in diesem Blog: es geht direkt zur Sache …
      cagent wird sich auch nochmals zu diesem Beitrag melden. Aktuell ist er mit Kap.3 von Stace beschäftigt und einem anderen Beitrag im Kontext von Meditation aus Sicht von Philosophie und Wissenschaft

Schreibe einen Kommentar