Skip to content

George Spencer-Brown wird 90

April 2, 2013

zum 90. Geburtstag von
George Spencer-Brown
am 2. April 2013

Ein neues Zeichen

Zu werben ist hier für ein seltenes Ereignis, die Einführung eines neuen Symbols. Wir alle sind vertraut mit Symbolen wie “+”, “-“, “&”, “%”, “§”, “©”, “@”, “𝄞”, “√”, “♂”, “♀” oder sogar, Gipfel des Mysteriösen: mit dem Gleichheitszeichen, “=”. Wir rechnen mit ihnen, folgen routinemäßig ihren Anweisungen und setzen sie selber überall dort ein, wo wir sie gebrauchen können. Doch eine Minute des Nachdenkens genügt und wir fangen an zu stutzen. Woher kennen wir diese Zeichen und seit wann wissen wir, was sie bedeuten? Wie oft haben wir sie beglaubigt, indem wir sie befolgen, ohne auch nur eine Minute über ihren Sinn und ihre Distinktion nachzudenken? Und was hat es, wenn wir schon einmal dabei sind, mit anderen rätselhaften Zeichen auf sich wie etwa “1”, “2”, “3” oder “a”, “b”, “c”? Was tun wir, wenn wir “und” lesen? Und was ist anders, wenn wir “oder” lesen? Warum gibt es für “ja, aber” bis heute keine Aufnahme in eine Wahrheitstabelle der Logik? Und so könnten wir weiterfragen und haben noch nicht einmal den einschlägigen Kreis einer europäischen oder auch westlichen Symbolwelt verlassen.

Tatsächlich will ich jedoch nicht unsere Symbolwelt in Zweifel ziehen, sondern sie durch ein weiteres Symbol ergänzen, von dem ich mir wünschen würde, dass es eines Tages so routiniert und damit auch unreflektiert Verwendung findet wie die oben genannten Zeichen. Es ist ein Symbol, das der britische Mathematiker George Spencer-Brown im Jahr 1969 der nicht sonderlich beeindruckten Fachwelt vorgestellt hat, um dem alten Traum der Reduktion mathematischer Kalküle auf ein einziges Zeichen einen Schritt näher zu kommen. George Boole hatte in seinen Laws of Thought im Jahr 1845 schon einmal die gesamte Algebra auf die beiden Ziffern “0” (für nothing) und “1” (für universe) reduziert, warum sollte man das nicht weitertreiben können.

Spencer-Brown führt das Zeichen

cross

ein, vom dem manche sagen, es setze sich aus dem horizontalen Strich als Zeichen für Negation (~) und dem vertikalen Sheffer stroke, |, (nach Henry Maurice Sheffer, “A Set of Five Independent Postulates for Boolean Algebras, with Applications to Logical Constants”, Trans. Am. Math. Soc. 14, 1913) als Zeichen für neither-nor, weder-noch, zusammen. Aber das ist nur ein Hinweis für Spezialisten. Mich interessiert, dass Spencer-Browns sogenannter mark of distinction oder auch cross eine für das westliche Denken höchst ungewohnte Aufforderung enthält, einen Unterschied als einen Zusammenhang zu lesen. Schreibt man etwa

   a crossed   ,

dann heißt das soviel wie: Betrachte die Markierung von “a” im Kontext ihrer Unterscheidung von etwas Unbestimmten, etwa von allem, was “nicht a” ist. Diese Aufforderung wird bereits grafisch geleistet: Ich “sehe”, dass sich das “a” durch einen Unterschied an diesem spezifischen Ort befindet, und mein Blick wandert unwillkürlich auf die Außenseite der Unterscheidung, hier unbezeichnet, wieder zurück auf das mark of distinction, der jetzt selbst einen operativen Charakter, den Charakter des Machens einer Trennung, des Treffens eines Unterschieds erhält. Ich “sehe” plötzlich, dass die Unterscheidung des Raums oben und unten, rechts und links ausfranst und ihm nur ein Blatt Papier eine Begrenzung gibt, das selbst nur ein Unterschied in einem ausfransenden Raum ist. Und ich “sehe”, dass dieser ausfransende Raum auch jene Stelle durchdringt, an der sich gerade noch das “a” so unerschütterlich selber behauptete. Wie kann sich das “a” dort halten, wo es sich hält? Wer ist für dieses cross einer Markierung des “a” im Unterschied zu unbestimmt anderem verantwortlich? Bin ich es nicht, der dieses “a” dort hält, wo ich es vorfinde? Man denke an Italo Calvinos Kurzgeschichte “Un segno nello spazio”, die er vier Jahre vor der Publikation der Laws of Form in seinen Cosmicomiche (Torino 1965) veröffentlichte und in dem der Protagonist Qfwfq sich in einem zunächst zeichenlosen Universum mithilfe eines Zeichens bemerkbar zu machen versucht, das jedoch schnell von viel zu vielen anderen Zeichen überwuchert wird.

Mit Spencer-Brown würde ich gerne dafür werben, dieses Zeichen der mark of distinction unserem Zeichenschatz hinzuzufügen. Ich halte es in all seiner Schlichtheit für Künstler und Kunstbetrachter, für Wissenschaftler und Intellektuelle, für Politiker und Priester, für Unternehmer und Spekulanten, für Ärzte und Patienten, für Eltern und Kinder für außerordentlich hilfreich, um ihren eigenen Zeichen auf die Spur zu kommen oder um den Zeichen, die andernfalls übersehen werden, einen Rahmen und damit eine Chiffre zu geben. Ich werbe dafür, weil diese Rahmung nur um den Preis ihrer Destabilisierung zu haben ist und weil diese Destabilisierung uns selber für Handlungen (zum Beispiel der Rahmung) verantwortlich macht, die wir andernfalls allzu gerne von uns weisen.

Spencer-Browns Symbol ist mannigfach interpretierbar. Und nur eine Interpretation hält sich an die Usancen der Logik, wie wir sie kennen. Aber schon hier verdient das Zeichen, das führt Spencer-Brown in einem Anhang zu seinem Kalkül selber aus, jedes Interesse. Denn logisch interpretiert, ist etwa das Zeichen

   a cross b   ,

nur als “nicht-a impliziert b” zu lesen, wobei die Implikation von b ohne das a nicht zu haben ist, so dass die Negation von a sich als Bezeichnung von a auf dem Umweg über ein b erweist. So steht es ja auch bei Ludwig Wittgenstein: “Daß aber die Zeichen ‘p’ und ‘~p’ das gleiche sagen können, ist wichtig. Denn es zeigt, daß dem Zeichen ‘~’ in der Wirklichkeit nichts entspricht” (Tractatus logico-philosophicus, 1921, 4.0621).

Nähern wir uns diesem interessanten Zeichen einer mark of distinction behutsam. Ich stelle zunächst den Autor, George Spencer-Brown, vor, gehe dann auf sein Problem mit imaginären Zahlen ein, stelle seine beiden Gesetze der Form vor und mache schließlich mit der Hauptfigur dieser Übung bekannt, dem Beobachter. Wer mit diesem neuen Symbol arbeitet, kann Identitäten als Oszillationen verstehen und beschreiben. Und nur das befreit aus einer kategorial festgefahrenen Welt und befreit zu einem Kalkül von Identitäten in Netzwerken.

 

George Spencer-Brown

George Spencer Brown wird am 2. April 1923 in Lincolnshire, England, geboren. Im Alter von drei Jahren liest sein Vater mit ihm die Elemente von Euklid. Nie verzieh der Sohn seinem Vater, dass er ihn nach dieser Ausbildung auch noch auf die Schule schickte, als er sechs Jahre alt wurde. Denn Jahre hätte es ihn gekostet, wieder zu verlernen, was man ihm dort beibrachte. Im Alter von vier Jahren zerstört George jeden Abend ein Spinnennetz, das in einem Busch vor seinem Fenster hing. In aller Frühe steht er auf, um die Spinne dabei beobachten zu können, wie sie dieses Netz wieder neu spann. Jeden Morgen kommt er zu spät. Das Netz ist jedes Mal längst wieder gebaut. Er will wissen, wie es die Spinne schafft, einen horizontalen Faden zu spinnen. Und er wusste bereits, so erzählt er später, dass man eine Form zerstören muss, wenn man herausfinden will, wie sie zustande kommt.

Nach der Schule und dem Dienst bei der Royal Navy als Telegraphist sowie Radiomechaniker und einigen Experimenten mit dem Einsatz von Hypnose bei der zahnärztlichen Behandlung besucht er nach dem 2. Weltkrieg das Trinity College in Cambridge, wo er Mitglied der Mannschaften für Schach, Fußball und Tennis wird und dem Cambridge University Club für das Segelfliegen beitritt, für den er einige Rekorde gewinnt. Bei der Royal Air Force dient er als Reserveoffizier. Er nimmt an akrobatischen Fliegerwettbewerben teil, spielt in der Theatergruppe in Stücken von Shakespeare und arbeitet 1950/51 mit Ludwig Wittgenstein an den Grundlagen der Philosophie. In den frühen 1950er Jahren gilt sein Interesse der Philosophie, der Psychologie, der Pädagogik und dem Paranormalen.

Dann wechselt er an die Oxford University, wo er an Fragen der Zoologie und vergleichenden Anatomie, der Mathematik und der Psychologie arbeitet und schließlich zur Rolle statistischer Forschung in der Psychologie zu publizieren beginnt. Seine Doktorarbeit schreibt er über die Abhängigkeit von wissenschaftlichen Schlussverfahren von Wahrscheinlichkeitsannahmen (Probability and Scientific Interference, London 1957, dt. Heidelberg 1996). In ihr weist er unter anderem nach, dass Zufälle Absicht voraussetzen, die Absicht eines Beobachters, etwas als Zufall gelten zu lassen, weil es dem Muster keines Musters entspricht.

In den 1960er Jahren beginnt er als Chief Logic Designer bei Mullard Equipment zu arbeiten, entwickelt zusammen mit seinem (erfundenen und später wieder verschwundenen) Bruder David J. Spencer Brown Kontrollelemente für Aufzüge und eine Zählmaschine auf der Grundlage komplexer arithmetischer Signale für British Rail. In den selben Jahren arbeitet er mit Bertrand Russell an den Grundlagen der Mathematik und ist offenbar bei Ronald D. Laing, einem von Jean-Paul Sartre existentialistisch beeinflussten Psychiater, zunächst in Behandlung, bevor er mit ihm zusammenarbeitet. Er setzt die Psychotherapie ein, um über Hypnose und Schlaflerntechniken sportliche Leistungen zu steigern und trainiert und erzieht begabte und hochbegabte Kinder. Laings Buch Knots (London 1970) über die Knoten menschlicher Beziehungen scheint Spencer-Brown viel zu verdanken.

Vor einigen Jahren erschien der erste Band einer Autobiographie Spencer-Browns über seine Kindheit, frühe Jugend und seine Hassbeziehung zu seiner Mutter, dem weitere Bände folgen sollen, Autobiography 1: Infancy and Childhood (Leipzig 2004). Irgendwann in den 1990er Jahren ergänzt Spencer-Brown zur Verwirrung der Bibliothekare, die ihn bisher unter Brown geführt hatten, seinen Nachnamen um einen Bindestrich.

 

Imaginäre Zahlen

1969 schließlich erscheint sein Buch Laws of Form (London 1969, New York 1972, dt. Leipzig 1999, 5. intern. Aufl. Leipzig 2008), das den Versuch macht, die mathematische Logik mit Möglichkeiten vertraut zu machen, die er und sein Bruder in den Ingenieurwissenschaften mit Erfolg eingesetzt haben. Dabei geht es insbesondere um das Rechnen mit der imaginären Zahl i, dem rechnerischen Ergebnis der Gleichung

x2 + 1 = 0,

also

x2 = -1.

Diese Gleichung ist weder durch das Ziehen der Wurzel,

√x = √-1,

noch durch Division,

x = -1/x,

eindeutig zu lösen. √-1 ist weder +1 noch -1 und zugleich sowohl +1 als auch -1. Und

x = -1/x

führt zu einer seit den Principia Mathematica von Bertrand Russell und Alfred North Whitehead verbotenen, zu einem Widerspruch führenden selbstreferentiellen Aussage: x ist -1 geteilt durch sich selbst, x.

Die Lösung dieser Art von Gleichungen besteht in der Einführung imaginärer Zahlen, die als diese Lösung definiert werden und für deren Bezeichnung man seit Leonhard Euler den Buchstaben i verwendet. Sie erweitern die natürlichen, ganzen, rationalen, irrationalen und reellen Zahlen um die Zahl i zu den komplexen Zahlen.

Die Pointe und der Verdacht, dem Spencer-Brown in den Laws of Form nachgeht, ist, dass die Einführung der imaginären Zahlen alle Zahlen zu komplexen Zahlen macht, nicht nur die neu hinzugefügten. Was aber ist eine komplexe Zahl? In John Stillwells Geschichte der Mathematik lässt sich nachlesen (Mathematics and Its History, New York 2002: 383 f.), dass komplexe Zahlen, wenn auch nicht unter diesem Namen, bereits von Diophantos von Alexandria vermutlich um 250 n. Chr. entdeckt worden sind, als dieser seine Arithmetik der Paare entwickelte. Komplex ist seitdem die Einheit einer Vielfalt, die weder auf eine einfache Einheit noch auf eine bloße Vielfalt reduziert werden kann. Komplexe Zahlen, Räume und Funktionen bestehen mindestens aus einem Paar zweier Einheiten, die einander voraussetzen und nicht auf eines der beiden reduziert werden können.

In Klammern sei angemerkt, dass Jurij M. Lotman in seinem Buch Universe of the Mind (New York 2001, dt. 2010: 53 ff.) solche Paare für die Semiotik wiederentdeckt hat und dort Tropen nennt. Nathaniel Hellerstein hat auch mit Rückgriff auf Spencer-Browns Laws of Form eine Diamond Logic (Singapore 1997) genannte nicht-aristotelische Logik entwickelt, die die klassischen Wahrheitswerte wahr und falsch um die beiden (oszillierenden, um einen unit delay verzögerten) Wahrheitswerte wahr, aber falsch und falsch, aber wahr ergänzt. Alfred Korzybski (Science and Sanity, Lakeville, CT 1933, 1994) hat ähnliche Absichten einer nicht-aristotelischen Logik verfolgt, die darin ihre Pointe hatten, dass sie wie in Hegels Logik, Karl Marx’ Kapitalismustheorie oder in Maurice Merleau-Pontys Wahrnehmungstheorie ihre Problemstellung nicht in der Beschreibung der Resultate von Prozessen als entweder wahr oder falsch, sondern in der Beschreibung dieser Prozesse selber suchte. Mit Bemühungen um parakonsistente oder fuzzy Logiken hat dies nur wenig zu tun, weil es nicht um die Einführung ontisch unentschiedener, sondern prozessual operativer Werte geht. Hegel sprach von Übergängen. An Hegel und an Martin Heidegger knüpft auch Gotthard Günther mit seinem Versuch an, eine mehrwertige Logik zu konstruieren, die positiv- und negativsprachlich sowohl beschreiben kann, was ist, als auch nachvollziehen kann, welchen Reflexionsgeschichten im Medium der Negation es sich verdankt (“Cognition and Volition: A Contribution to a Cybernetic Theory of Subjectivity”, in: ders., Beiträge zur Grundlegung einer operationsfähigen Dialektik, Bd. 2, Hamburg 1979: 203–240).

 

Laws of Form

Das Problem, das Spencer-Brown in den Laws of Form zu lösen versucht, ist die Beschreibung einer Einheit, die unreduzierbar aus einer Zweiheit besteht (ganz im Sinne von Ranulph Glanville, “Inside Every White Box There Are Two Black Boxes Trying to Get Out”, Behavioral Science 27, 1982, 1–11). Und die Anregung, die er aus der Elektrik der Schaltkreise mit in die mathematische Logik bringt, besteht darin, diese Einheit nicht substantiell wie das Wesen der Griechen und auch nicht relational wie eine Beziehung zwischen Dingen oder Elementen zu denken, sondern operativ, als Kalkül, als Rechenvorgang.

Daher die berühmten ersten beiden Sätze des ersten Kapitels unter der Überschrift “The form”: “We take as given the idea of distinction and the idea of indication, and that we cannot make an indication without drawing a distinction. We take, therefore, the form of distinction for the form.” Der eine Anfang besteht aus zwei Ideen, der Idee der Unterscheidung und der Idee der Bezeichnung. Wenn wir etwas bezeichnen, haben wir bereits etwas unterschieden. Die Form ist die Form des Unterschieds.

Im Anschluss daran lesen wir die Definition: “Distinction is perfect continence.” Eine Unterscheidung ist eine vollkommene Enthaltsamkeit im Sinne vollkommender Beinhaltung. Eine Unterscheidung enthält die Welt und bringt diese Welt hervor, weil sie in dieser Welt nur getroffen werden kann, wenn sie etwas in der Welt bezeichnet und damit das Bezeichnete von der Welt unterscheidet. Der Unterschied enthält dann jedoch beides, das Bezeichnete und das, wovon es unterschieden wird. Darüber hinaus enthält er als Trennung zwischen diesen beiden Seiten auch sich selbst, den Unterschied. Ohne dass der Unterschied getroffen, aktuell vollzogen, operativ gemacht wird, ist von dem, was er bezeichnet, und von dem, wovon er das Bezeichnete unterscheidet, nicht zu reden. Unter dem Begriff der Form wird all dies beobachtbar, wobei auch die Bezeichnung der Form der Unterscheidung eine Bezeichnung und Unterscheidung beinhaltet, für die wiederum dasselbe gilt.

Nicht zuletzt enthält der Begriff der Form dann auch den Beobachter, der den Unterschied trifft, denn ohne diesen Beobachter würde der Unterschied nicht getroffen. Auch das ist gemeint, wenn Unterschiede nicht kategorial als vermeintlich objektive Ordnung der bereits eingeteilten Welt, sondern konstruktiv oder ontogenetisch, wie Heinz von Foerster in seiner Kybernetik (Berlin 1993) sagt, als Operationen eines Beobachters verstanden werden, der so und anders unterscheiden kann, aber erst einmal unterscheiden muss, um sich irgendwann unter seinen eigenen Unterscheidungen auch selber wieder vorzufinden und so zum Gegenstand der eigenen Beobachtung machen zu können. Für Heinz von Foerster wie für Niklas Luhmann (und für Johann Gottlieb Fichte wie für Jacques Lacan) war es wichtig, darauf hinzuweisen, dass die Unterscheidung, die der Beobachter verwendet, um sich selbst zu beobachten, in dem Moment, in dem er sie verwendet, nicht ihrerseits beobachtet werden kann. Der Beobachter, der sich beobachtet, ist daher sein eigener blinder Fleck. Er kann sich nicht beobachten. Er kann nur etwas beobachten, was er mit sich verwechselt.

Dichter und reduzierter lässt sich eine Komplexität, eine Vielfalt als Einheit, nämlich eine Vielfalt der Aspekte als Einheit einer Operation, nicht fassen. Und natürlich setzt dieses Verständnis von Komplexität voraus, dass man sich auf eine Paradoxie und eine Selbstreferenz einlässt, auf die Paradoxie der Einheit als Vielfalt und auf die Selbstreferenz der Unterscheidung auf sich selbst. Eine Operation zu vollziehen, heißt, in Anspruch zu nehmen, was die Operation erst hervorbringen soll. Und es heißt, sich in der Operation auf die Operation zu beziehen, die als die Operation vollzogen wird.

 

Der Beobachter

Daraus resultiert ein Formbegriff, wie Luhmann festgestellt hat, der seinerseits nicht mehr auf den Gegenbegriff der Materie, wie bei Aristoteles, und auch nicht mehr auf den Gegenbegriff des Inhalts, wie in der Ästhetik des 18. Jahrhunderts, angewiesen ist, sondern ohne Gegenbegriff sich selbst bezeichnet und alle möglichen Gegenbegriffe aus sich selbst entwickelt, entsprechende Unterscheidungen vorausgesetzt („Die Paradoxie der Form“, in: Dirk Baecker (Hg.), Kalkül der Form, Frankfurt am Main 1993: 197–212; engl. „The Paradox of Form“, in: Dirk Baecker (ed.), Problems of Form, Stanford, CA 1999: 15–25). Und es resultiert daraus ein Formbegriff, der auf einen Beobachter angewiesen ist, wenn man unter einem Beobachter jemanden versteht, der eine Unterscheidung setzt.

Beide Eigenschaften zusammen, die Selbstreferenz der Form und die Beobachterabhängigkeit der Form derart, dass die erste Unterscheidung und der Beobachter “in the form”, wie Spencer-Brown formuliert, identisch sind, begründen die Attraktivität des Formkalküls zunächst für die Systemtheorie und darüber hinaus für jede Kognitionstheorie, wenn man unter Kognition das Hervorbringen von Etwas, inklusive der Kognition selber, durch das Treffen einer Unterscheidung versteht. Deshalb liefert der Formkalkül den Grundlagentext für jede Art kognitiver Systeme, sei es ein organisches, ein psychisches, ein soziales oder ein artifizielles System. Und  deshalb zwingt der Formkalkül zu einer Neuformulierung des Systembegriffs, der nicht mehr auf Relationen zwischen Elementen geschweige denn auf einen in irgendeiner Ordnung oder Vernunft der Sache abgesicherten Zusammenhang der Elemente verweist, sondern auf die Rekursivität von Operationen, die einen Unterschied treffen und damit eine Grenze ziehen, die beide Seiten der Unterscheidung beobachtbar macht, das heißt das Ausgeschlossene als Ausgeschlossenes einschließt.

Komplex ist seither, was oszilliert und sich in der Oszillation reproduziert. Die Herausforderung des von Spencer-Brown vorgelegten Formkalküls besteht darin, einzusehen, dass es etwas Einfacheres als dies nicht gibt. Zwei Axiome genügen, um einen Kalkül zu begründen, mit dem diese Einsicht bewiesen wird. Diese beiden Axiome definieren die beiden Gesetze, die dem Buch seinen Titel geben. Das erste Axiom definiert das law of calling: “The value of a call made again is the value of the call.” Wenn man eine Unterscheidung trifft und man trifft sie noch einmal, ändert dies nichts am Wert der Unterscheidung, selbst wenn man mit der Wiederholung als Beobachter auffällig wird und damit einen neuen Wert einführt. Das zweite Axiom definiert das law of crossing: “The value of a crossing made again is not the value of the crossing.” Wenn man eine Unterscheidung trifft im Sinne des Wechsels (“cross”) von der Außenseite der Unterscheidung auf die Innenseite der Unterscheidung und man wechselt anschließend wieder auf die Außenseite, steht man mit leeren Händen da, technischer formuliert: landet man im unmarked space, im unbezeichneten Raum. Diese beiden Gesetze setzen die Einheit als die Einheit ihrer Wiederholung und die Leere als die Aufhebung der Einheit.

Mehr als diese beiden Gesetze benötigt Spencer-Brown nicht, um ein Formkalkül, er spricht von einem calculus of indications, zu entwickeln, der vorführt, wie man mit ineinandergeschachtelten Unterscheidungen rechnen kann. Jede Form, sie sei so vielfältig wie sie will, kann mithilfe dieser beiden Axiome auf entweder den markierten Zustand, eine Unterscheidung, oder den unmarkierten Zustand, die Leere, reduziert werden. Kritiker des Formkalküls wie Paul Cull und William Frank haben daher eingewandt, Spencer-Brown habe nichts anderes geleistet als eine Reformulierung der Booleschen Algebra, die ihrerseits mit nur zwei Zahlen, der 1 für das Universum und der 0 für das Nichts, auskommt (“Flaws of Form”, International Journal of General Systems 5, 1979: 201–211). Verteidiger des Kalküls wie der Mathematiker Louis H. Kauffman verweisen hingegen darauf, dass Spencer-Brown die Boolesche Algebra um die Einsichten von Charles Sanders Peirce ergänzt, dessen Semiotik vorführt, dass man Zeichen beliebiger Art nicht versteht, geschweige denn setzen kann, wenn man nicht einen Dritten, einen Interpretanten, den Beobachter, mitberücksichtigt, für den das Zeichen Sinn macht (“Self-Reference and Recursive Forms”, Journal of Social and Biological Structures 10, 1987: 53–72).

 

Identität als Oszillation

Spencer-Brown entwickelt seinen Formkalkül bis zu jenem Punkt, an dem eine Unterscheidung rein rechnerisch sich selber bezeichnen und unterscheiden kann. In der Mathematik ist das der Punkt der Einführung imaginärer Zahlen, in der Logik der Punkt der Aufhebung der aristotelischen Sätze der Identität,

A = A,

des Widerspruchs,

¬ (A  ∧ ¬ A),

und des ausgeschlossenen Dritten,

A ∨ ¬ A.

An die Stelle dieser aristotelischen Logik tritt die Einsicht, dass Identität nur im Rahmen einer Negation zu haben ist, die als Implikation zu verstehen ist, eben als Oszillation (siehe auch Dirk Baecker, “Aristotle and George Spencer-Brown”, Cybernetics & Human Knowing 20, 3-4, 2013: 9–30):

aa

Ein a ist nur ein a (Identität), wenn es sich von einer Außenseite unterscheidet, die es nicht ist (Negation), dessen Existenz es jedoch als Außenseite der Unterscheidung voraussetzt (Implikation).

An die Stelle der aristotelischen Sätze der Identität, des Widerspruchs und des ausgeschlossenen Dritten treten die kybernethischen Sätze der Paradoxie,

a ≠ a,

der Ambivalenz,

a ∧ ¬ a

und der Kontrolle,

a ∨ a.

Der Organisationstheoretiker Philip G. Herbst ist einer der ersten, der der Vermutung nachgegangen ist, dass Spencer-Browns Form der Unterscheidung die Möglichkeit bietet, voraussetzungslos zu starten und alle Voraussetzungen im Zuge des Prozesses sowohl einzuholen als auch zu modifizieren (Alternatives to Hierarchies, Leiden 1976). So glaubte er dem Platonismus, dem Glauben an ewige Ideen, dem Positivismus, dem Glauben an bereits vorliegende, als “Daten” gegebene “Fakten”, und dem Kantianismus, dem Glauben an transzendent verankerte Prinzipien der Erkenntnis (Raum und Zeit) entgehen und so analysieren zu können, was Industrie, Bürokratie und Management tatsächlich bedeuten. Niklas Luhmann (Die Gesellschaft der Gesellschaft, Frankfurt am Main 1997) setzt dieses Programm auf einer gesellschaftstheoretischen Ebene fort.

Der Formkalkül Spencer-Browns besteht darin, das Rechnen mit Unterscheidungen von einer ersten Anweisung, “Draw a distinction”, bis zur Wiedereinführung (“re-entry”) der Unterscheidung in die Form der Unterscheidung zu entwickeln, um auf diese Art und Weise zeigen zu können, dass der scheinbar einfache, tatsächlich jedoch bereits komplexe Anfang, das Treffen einer Unterscheidung,

       cross  ,

nur in einem Raum stattfinden kann, in den die Unterscheidung ihrerseits wieder eingeführt wird,

 reentry  .

Der Beobachter, der eine Unterscheidung trifft, wird dadurch der Unterscheidung gewahr, der er sich selber verdankt. Das ist der Grund, warum Heinz von Foerster, der Begründer der Kybernetik zweiter Ordnung, so enthusiastisch auf den Formkalkül reagiert hat und für den Whole Earth Catalog im Frühjahr 1969 dessen erste Rezension geschrieben hat (dt. in Dirk Baecker (Hg.), Kalkül der Form, Frankfurt am Main 1993: 9–11). Unterscheidungen haben ihren mathematischen und logischen Ort auf einer Ebene der Beobachtung zweiter Ordnung. Sie sind, was sie sind, nämlich die von einem Beobachter getroffene Unterscheidung, nur dann, wenn sie von einem weiteren Beobachter als diese Unterscheidung, nämlich im Hinblick auf ihre Form, beobachtet werden. Dieser weitere Beobachter kann der erste, sich selbst beobachtende Beobachter sein. Er kann jedoch auch ein anderer Beobachter sein, der dann bereits als Sozius, als Mitgesellschafter des ersten Beobachters auftritt und mit diesem zusammen eine nicht unbedingt friedliche Gesellschaft begründet.

Spencer-Browns Formkalkül wird bis zu dem Punkt entwickelt, an dem gezeigt werden kann, dass diese Wiedereinführung und damit Selbstbeobachtung und Vergesellschaftung möglich ist, jedoch ihren Preis hat. Der Preis besteht darin, dass in die Form ihrer Unterscheidung wiedereingeführte Unterscheidungen nicht mehr auf entweder eine einfache Unterscheidung oder die Leere zurückgeführt werden können. Statt dessen oszillieren sie imaginär und damit unauflösbar zwischen diesen beiden Möglichkeiten. Das jedoch ist präzise das Kennzeichen einer komplexen Einheit. Sie ist etwas und nichts zugleich und gewinnt aus der Oszillation zwischen diesen beiden Möglichkeiten ihre Wirklichkeit. Von hier aus startet jede Kognitionswissenschaft (siehe etwa Francisco J. Varela, Connaître: Les Sciences Cognitives, Tendences et Perspectives, 2. Aufl., Paris 1996). Spencer-Brown jedoch weist seinen Text abschließend nur darauf hin, dass man von hier aus den Kalkül eines Tages möglicherweise so weit weiterentwickeln wird, dass man zum Beispiel versteht, was es heißt, zu zählen und zu erinnern.

George Spencer-Browns Kalkül ist vereinzelt in der Therapie, in der Soziologie und in der Mathematik rezipiert worden (siehe Dirk Baecker (Hg.), Probleme der Form, Frankfurt am Main 1993; Jörg Lau, Die Form der Paradoxie: Eine Einführung in die Mathematik und Philosophie der “Laws of Form” von G. Spencer Brown, Heidelberg 2005; Tatjana Schönwälder-Kuntze, Katrin Wille und Thomas Hölscher, George Spencer Brown: Eine Einführung in die Laws of Form, 2. Aufl., Wiesbaden 2009). Wer mit Leerstellen, mit Selbstreferenz und mit dem Einschluss der Beobachter in ihre Beobachtungen rechnen möchte, kommt um diesen Kalkül und seine Ideen nicht herum.

 

Eine Übung

Eine Übung, um sich mit dem Symbol der mark of distinction vertraut zu machen, ist die allereinfachste. Man nehme einen Gegenstand seines Interesses, etwa ein a, rahme ihn durch den Unterschied, den man längst getroffen hat, ohne seiner gewahr geworden zu sein:

a crossed   ,

frage danach, was man ausgeschlossen haben könnte – etwa ein b ­–, indem man dieses a in den Fokus eines Interesses eingeschlossen hat:

a cross b   ,

und mache sich klar, dass das ausgeschlossene b für die Identität von a so wichtig ist wie die Markierung des a als unterschieden von b:

a cross b re-entry   .

Man wiederhole diese Übung an kleinen und großen, wichtigen und unwichtigen, leblosen und lebendigen Dingen. Sie alle geraten ins Oszillieren und verraten uns so etwas über ihre Existenz.

Man gebe auch sich selbst eine solche Form:

ich cross re-enty   ,

und probiere aus, was man dadurch zu sehen bekommt.

Draw a distinction.

Watch its form.

Work its unrest.

Know your ignorance.

From → Form, Mathematics

40 Comments
  1. Eine kleine Anmerkung über den Begriff der Materie als Gegenbegriff zu Form bei Aristoteles, bzw. Thomas von Aquin.
    Es ist fraglich, ob in der Hylemorphismus-Lehre der Begriff der Materie so verwendet wird, wie wir ihn benutzen. Vielmehr scheint in der Hylemorphismus-Lehre jedenfalls dem Konstrukt nach der Begriff der Materie sehr dem Begriff des Mediums ähnlich zu sein, wie ihn Heider und später Luhmann verwendet haben.

    https://differentia.wordpress.com/2013/02/25/materie-und-form-bei-thomas-von-aquin-systemtheorie-mediumform/

    Möglicherweise handelt es sich daher weniger um die Ersetzung eines Begriffs, sondern eher nur um die Ersetzung des Wortes “Materie”, das aufgrund seiner semantischen Verwandlung nicht mehr geeignet war.

  2. Was mich einmal interessieren würde, weil ich in dieser Hinsicht keinerlei Kenntnisse habe: gibt es was den Zusammenhang von Materie/Medium und Form angeht, auch in der hinduistisch-buddhistischen Tradition vergleichbare Konstrukte? Kennen Sie jmd, den man fragen könnte?

    Wundern würde es mich nicht, wenn so wäre. In dem Fall wären bei Vergleichung die Gemeinsamkeiten genau so interessant wie die Unterschiede.
    Und wenn es keine vergleichbaren Konstrukte gibt, dann wäre das sehr erklärungsbedürftig.

    • Ich würde bei Holm von Egidy anfangen zu suchen.

    • Gabriel Ellis permalink

      In den Pali-Reden des Buddha gibt es das klassische Begriffspaar “nama-rupa”.
      Nama heißt wörtlich “Name” und beinhaltet alle geistigen Funktionen (inkl. Gefühle, Gedanken, Bewusstsein, Intentionen).
      Rupa heißt wörtlich “Form” und beinhaltet alles körperlich-materielle, vor allem den menschlichen Körper.
      Zusammen umfassen nama-ruppa das gesamte erfahrbare Universum.
      Ich würde nicht sehr viel auf die buddhistische Philosophie setzen (natürlich wird man da fündig). Sie war über die Jahrhunderte hinweg stets ein Dekadenzphänomen. Zuallererst würde also schauen, was der Buddha dazu gesagt hat (inkl. Überlieferungproblem etc.), also im Palikanon.
      Eine gute Einführung mit Quellenzitaten ist Nyanatiloka “Word of the Buddha”, http://www.urbandharma.org/pdf/wordofbuddha.pdf

  3. Reblogged this on Strenge Jacke!.

  4. Da die Grundlagen der Mathematik und die Quantenphysik bereits thematisiert wurden, hier eine kurze Ergänzung.

    Wenn man in der Quantenphysik mal auf die Kopenhagener Deutung verzichtet und die mathematischen Grundlagen betrachtet, kommt man auf eine dualistische, oszillierende Struktur. Die Grundlage der QM ist die Mathematik des Hilbertraums, die eine dualistische Struktur aus Raum (das zu Observierende) und Dualraum (der Observer) benutzt.
    Im Rahmen dieses Kalküls (ohne die hanebüchene Kopenhagener Deutung) ist der Satz des Widerspruchs ¬ (A ∧ ¬ A) aufgehoben: Schrödingers Katze ist gleichzeitig tot und lebendig. So what? Materie ist die Oszillation zwischen Raum und die Katze Ψ “an sich” ist nicht Gegenstand des Kalküls. Fürsprecher für so eine Sicht ist u.a. der Mathematiker Roger Penrose, der im Rahmen der Verknüpfung von Quantenphysik und Gravitationstheorie die Kopenhager Deutung aufheben will. In der Physik leider eine Minderheitsmeinung, die aber GSB sicher gefallen würde.

  5. Nachtrag: Anzeige-Bug von WordPress bei Benutzung von kleiner/größer-Zeichen.
    Zeile 9 meint: Materia ist die Oszillation zwischen Raum (ket-Vektor) und Dualraum (bra-Vektor).

  6. Die kompakte Darstellung gefällt mir sehr gut. Danke!

  7. George Spencer-Brown wird 90 … wäre ich naiv, hätte ich geglaubt, man würde einem Menschen zum Geburtstag gratulieren. Aber wenn Homer 2500 wird, gratuliert ihm ja auch niemand mehr. Dann sind seine Texte gemeint, egal ob sie von einem Menschen geschrieben wurden oder ob sie immer schon Gottes Worte waren, die es seit – bald – 90 oder 2500 Jahren “einfach gibt”.
    Lustig ist, dass diese Texte an ein Lebensalter eines für die Texte irrelevanten Autors gebunden werden – zumal wenn die Texte so gelesen werden, dass sie Menschen (den Mensch) ausschliessen.
    Als ich noch viel naiver war, als ich es immer noch bin, habe ich Autoren, die mich beeindruckten, besucht, das heisst ich wollte sie als Menschen kennenlernen. G. Spencer-Brown wäre eine Reise wert, mir hat er damals gesagt, ich sei ein ganz gewöhnlicher Idiot. Und Fritz Simon hat mir gleich darauf erzählt, dass er auch ziemlich schlecht abgeschnitten habe (was mich nur bedingt getröstet hat).
    Ich mag natürlich jemandem, der mich einen Idioten schimpft, nicht recht gratulieren. Mir ging es hier mehr darum, dass die Texte ja eben NICHT 90 geworden sind und dass es skuril ist, die Texte mit “90” zu feiern.

    • Wohl wahr, lieber Herr Todesco, deswegen wird hier ja auch der 90. Geburtstag eines Autors und nicht seiner Texte gefeiert beziehungsweise annonciert, wenn auch, das ist zuzugeben, wegen der Texte. Es entspricht akademischem Brauch, den Geburtstag von Autoren und nicht ihrer Texte zu feiern, obwohl von Zeit zu Zeit auch einmal der runde Geburtstag eines Textes zum Anlass genommen werden kann, nach dessen Wirkungen und Folgen zu fragen. So haben wir es mit Niklas Luhmanns “Die Gesellschaft der Gesellschaft” zu dessem 10jährigem Erscheinen gehalten (mit einem Doppelheft der Zeitschrift Soziale Systeme) und so mögen es einige interessierte Mathematiker vielleicht auch mit dem 50jährigen Erscheinen der Laws of Form halten: 2019 wäre es so weit.

      • 😉 Sie haben die Differenz, die ich meinte, sehr gut getroffen. Wenn GdG in der Bibliothek unter 34F23B abgelegt ist, wird diese Adresse so gut wie eine Buchstabenkette l u h m usw. Wer wollte da noch an Autoren denken, die etwas anderes als reinste Beobachter sind. Mir schien eben gerade, dass der akademische Brauch emotional rettet, was akademisch weg/abstrahiert wurde – da war doch noch ein Mensch, auch wenn er nur Autor Gottes war. Ich bitte um Entschuldigung, ich wollte nicht lästig tun, ich bin nur in die Falle getappt

  8. Folgender Text könnte zum Thema Laws of Form möglichweise ganz interessant sein: http://beobachter-der-moderne.blogspot.com/2013/04/die-beobachtung-der-beobachtung.html

    Darin erlaube ich mir u. a. das Gesetz des Kreuzens als einen Fall des Gesetz des Nennens zu interpretieren. Womit es selbst dem Gesetz des Nennens zum Opfer fallen würde. Sicherlich ein gewagter Schritt. Ich konnte aber bisher nichts finden, was dagegen spricht.

    • Mir scheint, dass man damit die Pointe eines Rechnens mit unmarked states (voids) verliert, da man diese nicht mehr konstruieren, das heißt mit angebbaren Operationen produzieren kann. Siehe im Übrigen zum Rechnen mit Paradoxien diesseits der Liebesmüh mit den Gorgonenschwestern auch Nathaniel Hellersteins Diamond Logic in Heft 1 von Jg. 1 der Zeitschrift Cybernetic.

      • Wow! Ich kannte den Text nicht, muss aber zugeben, dass die Parallelen teilweise wirklich verblüffend sind. Liegt wohl daran, dass wir uns demselben Problem nähren und die Ähnlichkeiten damit nicht nur zufällig sind. Der Unterschied ist aber, er beobachtet von einem mathematischen Standpunkt aus, ich von einem soziologischen.

        Ich sehe allerdings nicht, worin Hellerstein die Lösung sieht. Er bringt es selbst in der Konklusion auf den Punkt, wenn er schreibt, dass das Diamond-System das Paradox nur toleriert (S. 119). Mehr ist es nicht, was er anbietet. Insofern betreibt er nur reine Sthenographie. Worin liegt der Unterschied zwischen „Dieser Satz ist falsch“ und „Dieser Satz ist halb-wahr und halb-falsch“? Das ist nur eine Variation des Ausgangsparadoxes. Damit produziert er lediglich eine Tautologie, also einen Unterschied, der keinen Unterschied macht. Er beobachtet immer noch in derselben Form wahr/falsch. Anders ausgedrückt, ihm gelingt kein re-entry. Er versucht immer noch die Form aus der Form zu beobachten. Das trifft auf alle Bespiele zu, die er diskutiert.

        Soziologisch interessant ist das Unexpected-Exam-Paradox. Dabei handelt es sich um einen performativer Widerspruch. Wenn der Lehrer wirklich eine unangekündigte Klausur hätte schreiben lassen wollen, hätte er sie nicht ankündigen dürfen. Hellersteins Lösung mag mathematisch vielleicht befriedigen. Sozialpsychologisch tendiert die Lösung schon sehr ins Neurotische. Mich würde interessieren, wie Hellerstein das „Sei spontan“-Paradox lösen würde.

        Ich denke, solche Probleme lassen sich mathematisch nicht lösen. Die Lösung wäre Lernen durch Kontextsprung. Das ist eben keine logische, sondern eine kreative Operation. Hier findet der re-entry statt. Der erste Schritt dazu ist die Einsicht, dass es so nicht geht. Ich schlage vor die Unterscheidung zu wechseln, weil man so nicht mehr weiter operieren kann – außer man möchte sich damit begnügen in einer einzigen Form zu oszillieren und auf Selbstbeobachtung verzichten.

        Der Operator, den ich vorschlage, ist die Unterscheidung„alles/nichts“. Das entspricht dem Kanon Null bei Spencer-Brown. Jedes Unterscheidungsarrangement lässt sich auf diese Form reduzieren. Und in dieser Form lässt sich der unmarked state konstruieren. Dahinter geht’s nicht mehr weiter. Er ist das Signal, das anzeigen soll, dass man auf eine Stelle stößt, an der es so nicht weitergeht und eben deshalb die Form gewechselt werden muss. Klar kann man das Paradox noch vollständig ausformulieren und tausendfach variieren, trotzdem kommt man in der einen bestimmten Form nicht mehr weiter und deswegen muss anders unterschieden werden. Erst dann kann die Paradoxie der Form entfaltet werden. Hier findet der Sprung von Monokontexturalität zu Polykontexturalität statt.

        Ich würde zurückfragen, wie wollen Sie den unmarked state konstruieren, um damit rechnen zu können? Ich finde an diesem Punkt die Metapher des Rechnens etwas irreführend, weil man mit Mathematik hier nicht mehr weiterkommt. Das ist die eigentliche Pointe von Hellersteins Text – zumindest aus soziologischer Perspektive. Hier müsste man anfangen die imaginären Werte einzusetzen. Die lassen sich mathematisch bloß nicht mehr konstruieren.
        Semantik lässt sich nicht in Mathematik übersetzen. Hier handelt es sich um ein soziologisches Problem und nicht mehr um ein mathematisches. Hellerstein spricht nicht gegen, sondern für meine Lösung.

      • Ich habe Schwierigkeiten, anonym zu kommunizieren, aber sei’s drum. Die Pointe der Hellerstein’schen Diamantenlogik (zuweilen, wenn ich das recht sehe, auch Deltalogik genannt, ein Ausdruck, den ich glücklicher finde) liegt meines Erachtens in der Übersetzung der Oszillation der Paradoxie in eine “Ja, aber”-Operation: true, but false; false, but true, als dritter und vierter Wert seiner Logik. Soziologisch leuchtet das sofort als Anerkennung-plus-Variation einer Position ein; jede Kommunikation folgt exakt dieser Aber-Logik.

        Daher würde ich auch dazu neigen, den Kanon Null nicht beim alles/nichts anzusetzen, sondern beim etwas/etwas anderes. Etwas anderes lässt sich jedoch nicht deduktiv oder induktiv erreichen, sondern nur abduktiv: Man braucht eine Lücke, den Sprung der Oszillation auf die Seite des unmarked state, um beim Zurückkreuzen nicht zurück-, sondern woandershin zu kreuzen. Und ich muss Leerstellen erzeugen (Leute entlassen, mich scheiden lassen, jemanden nicht versetzen, morgens nicht aufstehen, das Buch nicht weiterlesen, eine Anfrage nicht beantworten etc. pp.), um diese Möglichkeit der kreativen Setzung einer zuvor noch nicht gesetzten Unterscheidung zu haben.

        Der Kanon Null ist bei Spencer-Brown der Verweis darauf, dass ein Ding ist, was es nicht ist (1997, S. ix). Deswegen seien “alles” und “nichts” formal identisch, denn — und darauf käme es mir an — beiden “fehlt jegliche Form überhaupt” (ebd.). Mich interessiert soziologisch jedoch nur das, was Form hat, einen marked state und einen unmarked state.

  9. Jetzt fangen Sie auch schon an wie der Kusanowsky. Hier geht es aber nicht um mich. Außerdem ist anonym auch bloß eine relative Beobachtung. Trotz des Klarnamens, kenne ich Sie ja eigentlich auch nicht. Sodass die Kommunikation wechselseitig mit hohen Unsicherheiten belastet ist. Das ändert sich auch nicht maßgeblich, wenn Sie meinen Klarnamen kennen. Oder?

    Ich lese Hellerstein aus der Perspektive meiner Spencer-Brown-Interpretation. Und aus der lese ich „wahr, aber falsch“ als reine Oszillation in einer Form. Mir ist nicht klar, wo da die Variation her kommt. Ich verstehe das eher als kultivierten Widerspruch. Kennen Sie Vicky Pollard aus Little Britain? Aber ja, aber nein, aber ja, aber nein, aber ja, aber nein… Mehr praktische Relevanz sehe ich hier leider nicht.

    „Etwas/etwas anderes“ setzt bereits zu hoch an, weil wir hier schon mitten im Versuch wären, endliche Informationslasten zu produzieren. In dieser Form gibt es keine Leerstelle mehr, sofern die Einheit dieser Form bereits bezeichnet wurde. Wenn nicht, wäre es diese Leerstelle, die es als erstes zu füllen gilt. Sie haben recht, dass dies nicht induktiv und nicht deduktiv erfolgen kann. Abduktion beruht aber bereits auf komplexeren Voraussetzungen und kann daher nicht aus einer Form allein heraus erfolgen. Anders ausgedrückt, Abduktion kann nur polykontextural erfolgen, aber nicht monokontextural.

    Die Leerstellen, die Sie meinen, wurden bereits erzeugt. Um Leute entlassen zu können, müssen erst mal freie Positionen geschaffen worden sein, die besetzt werden können. Um sich scheiden lassen zu können, muss man erst mal auf die Idee gekommen sein, dass keinen Partner zu haben, eine Leerstelle ist, die ausgefüllt werden muss. Um ein Buch nicht weiter lesen zu können, muss man erst mal begonnen haben. Und warum dieses Buch und kein anderes? Ich verstehe den Punkt nicht. Der unmarked state muss zuerst markiert werden und sei es nur negativ als Leerstelle. Soziologisch spannend wird es z. B. mit der Frage, wie die Leerstelle konstruiert wurde, die besetzt werden konnte.

    Richtig, soziologisch gesehen, gibt es nur bereits in Form Gebrachtes. Mithin lässt sich auch die Idee, dass Ding und Nicht-Ding in der Form identisch sind, nur in der Form ausdrücken. Ich nutze dazu die Unterscheidung alles/nichts.

  10. paradigma permalink

    LoF ist ein wirklich unterhaltsames Büchlein für intime Freunde der Boolschen Algebra. Die Formen religiöser Verehrung, die immer wieder mit diesem Buch mitschwingen, werden mir aber wohl ein Rätsel bleiben. Da wird ein Mythos aufgebauscht, der im krassen Widerspruch zum tatsächlichen Nutzen des Notationssystems steht. Die Besprechung von Gould (The Journal of Symbolic Logic,Vol. 42, No. 2 (Jun., 1977), S. 317-318) ist im Gegensatz zu den hymnischen und völlig unkritischen Lobpreisungen des Werkes ein Gewinn.

  11. deaXmac permalink

    Wenn ich mich hier einmal kurz einklinken darf, Professor Baecker.
    Nur um ein paar Störmuster im Hinblick auf Verständnisfragen einzubringen.
    Denn dieses Problem interessiert mich angesichts der allfälligen “Überforderung durch Kommunikation” bereits seit Mitte der 90 Jahre .
    Leider stoße ich bislang mit meinen Rückmeldungen an die Theorie kaum auf Resonanz .

    Kann es sein, dass vonseiten der Soziologie ein wesentliches Element der “Laws of Form” übersehen wurde, das sich anschließend in Luhmann’s Zeitdimension wieder findet?

    “Der Kanon Null ist bei Spencer-Brown der Verweis darauf, dass ein Ding ist, was es nicht ist (1997, S. ix). Deswegen seien “alles” und “nichts” formal identisch, denn — und darauf käme es mir an — beiden “fehlt jegliche Form überhaupt” (ebd.). Mich interessiert soziologisch jedoch nur das, was Form hat, einen marked state und einen unmarked state.”

    Hierzu “Kanon Null. Koproduktion”
    “An diesem Punkt ist der einzige Block gegen vollständige Erleuchtung die Annahme (und sie hat Westlichen Philosophen hunderte Jahren im Nacken gesessen) , dass, weil nichts keine Form hat, keinerlei konditionierte Struktur besitzen kann, und somit nicht Basis beobachtbarere Phänomene sein kann, da beobachtete Phänomene offensichtlich sehr wohl eine konditionierte Struktur haben”.

    Bei Luhmann liest sich die konditionierte Struktur dann so:
    „In der ZEITDIMENSION“ (traditional repräsentiert durch den BEGRIFF der BEWEGUNG) geht es um die Unterscheidung VORHER und NACHHER ; heute um die Unterscheidung von Vergangenheit und Zukunft“

    Verfolgt man den traditional repräsentierten Begriff der Bewegung zurück zu Aristoteles, dann landet man beim Unterschied zwischen Aggregatdenken von Parmenides und dem aristotelischen Denken in Kontinuität der Bewegung. (vgl. Paul Feyerabend “Wissenschaft als Kunst”). Aristoteles hat die zenonschen Paradoxien widerlegt, die sich später im Streit zwischen Goethe und Newton wieder finden. Und letztlich über die “Entdeckung des Unendlichen. Georg Cantorund die Welt der Mathematik” (David Foster Wallace) auch in die Russell’ schen Antinomie münden.

    Interessanterweise werden seitens der Systemtheorie auch konstant Zweige “nicht-aristotelischer Logik” verfolgt , historische Zusammenhänge werden augenscheinlich nicht offengelegt und es wird offenbar noch nicht einmal zur Kenntnis genommen, dass Verweise auf Aristoteles bei den Konstruktivisten immer wieder auftauchen, z.B. auch bei Heinz von Foerster’s etymologischen Ansatz, beschrieben in: “Betrifft Erkenntnistheorien” , mit Verweis auf Gregory Bateson (“wie jeder Schuljunge weiß”) im Zusammenhang mit “meta ta physika”.

    In den “Laws of Form” findet sich dann dieser Verweis in Appendix 2 S. 114:
    “Im Vorbeigehen wollen wir bemerken, dass, wie uns Prior (“Formal logic”) erinnert, kurze Einblicke in den Pfad zu dieser Identität in ARISTOTELES Werk sichtbar werden, der auf eine Form Bezug nimmt, die neulich ausführlicher von Ladd-Franklin (“Mind”) beschrieben wurde, in welcher das, was sie einen Antilogismus nennt, DREI SYLLOGISMEN in sich kondensiert. Hier bringen wir eine weitere Stufe ans Licht, wo die DREI-IN-EINEM-NATUR des SYLLOGISMUS ohne Rückgriff auf ein Bild oder einen Antilogismus aus seiner TRANSKRIPTION alleine hervorgeht”

    Kann es sein, dass sich in Anwendung der “Laws of Form” durch die Soziologie mittlerweile eine doch höchst selektive Interpretation der drei “kanonischen Schriften” von George Spencer-Brown” eingeschlichen hat, die dann gewohnheitsmäßig zu einer etwas schrägen Anwendungen der “Laws of Form” geführt haben, sodass die Rekursionen auch nicht mehr so ganz zu gelingen scheinen?

    Hierzu:
    “ERSTEN KANON. VEREINBARUNG ÜBER DIE ABSICHT.
    Laß den ZWECK eines Signals (einer Botschaft, eines Textes, einer Abhandlung, einer Handlung, eines operativen Vorgehens etc.) auf dessen VERWENDUNG BESCHRÄNKT sein.
    Im Allgemeinen: „WAS NICHT ERLAUBT IST, IST VERBOTEN“.”

    Denn auch diese Anweisung gehört zu den Kernbotschaften der “Laws of Form”

    “Mit anderen Worten geht dieser Text NIRGENDWO nach der SELBSTBETRÜGERISCHEN Methode von GEREDE und INTERPRETATION vor, sondern nach der SELBSTKORRIGIERENDEN FORM von Befehl und Betrachtung.“
    (Vorwort zur Int. Ausgabe, S. X)

    Verzeihen Sie mir bitte meine Störung, Herr Professor Baecker. Da Störungen seitens der Systemtheorie jedoch ausdrücklich erwünscht sind, um auch “order form noise” zu erzeugen, habe ich diesen Weg nun gewagt. Auf Resonanz bin ich gespannt. Danke vorab!

    • Haben Sie Dank für Ihren Kommentar. Und, ja klar, Störungen sind immer erwünscht, solange sie eine ablehnbare Form einhalten. Aber ich bin mir nicht sicher, worauf Sie hinauswollen. Dass “die Soziologie” Spencer-Browns Laws of Form selektiv liest, ist zweifelsohne richtig und anders auch nicht möglich. “Die Soziologie”, von der Sie schreiben, besteht ja in diesem Fall nur aus einer Handvoll Autoren, die alle ihre spezifischen Zugänge zum Formkalkül haben.

      Wenn ich Sie richtig verstehe, haben Sie den Eindruck, dass diese Autoren entweder mit Aristoteles’ Problem der Bewegung oder seiner Lösung dieses Problems nicht richtig umgehen. Das stimmt vermutlich in beiden Fällen, da es sich diese Autoren mit Luhmann angewöhnt haben, den Bewegungsbegriff äußerst misstrauisch zu beobachten und auch bei Hegel, für den der Begriff nach wie vor in seiner Dialektik des Werdens eine große Rolle spielt, eher zu umgehen. Vermutlich liegt dies daran, dass wir uns eher gegen Begriffe der Kontinuität und ihrer Herstellung und für, wie Sie sagen, parmenideische Aggregatbegriffe entschieden haben, also das Diskrete dem Kontinuierlichen vorziehen.

      Das dürfte ein wichtiges Erbe der Kybernetik sein, die mit der Informations- und Kommunikationstheorie eher digitalisierende als analogisierende Begriffe bevorzugt. Allerdings wird hier wieder der zentrale Begriff der Differenz von System und Umwelt entscheidend, der darauf hinausläuft, zu beschreiben, dass das System mit tendenziell binären Codes eher analoge Problemstellungen der von ihm wahrgenommenen Umwelt bearbeitet. Das System muss, mit Spencer-Brown formuliert, daher seinen binären Code in das System wieder einführen, um daraus jene Unbestimmtheit zu gewinnen, die memorierend und oszillierend die Bearbeitung der Differenz von System und Umwelt erlaubt.

      Allerdings geschieht dies nach Luhmann nicht nur im Medium der Zeit, das heißt nach der Maßgabe der vorher/nachher- (mit einem memorierend oszillierenden Ereignis) oder Vergangenheit/Zukunfts-Differenz (mit einer memorierend oszillierenden Gegenwart), sondern auch in den Sach- und Sozialdimensionen des Sinns: Innen/Außen bzw. Bestimmt/Unbestimmt (mit memorierend oszillierenden Horizonten) und Ego/Alter Ego (mit einer memorierend oszillierenden Kommunikation).

      Das heißt, wir kommen nicht darum herum, Rekursivität und Komplexität immer wieder ineinander zu blenden, und es mag gut sein, dass die wirklich scharfen Begriffe dafür noch immer fehlen. Gäbe es diese Begriffe, könnte man vielleicht auch besser rekonstruieren, mit welchen Problemen sich Aristoteles beschäftigt hat.

  12. deaXmac permalink

    Danke, Herr Professor Baecker, für Ihre ausführliche Antwort.

    Um etwas “order from noise” zu erzeugen, möchte ich doch noch ein paar Störmuster einbringen.
    Es dreht sich im Kern darum – gerade auch anhand von Paul Feyerabend und seinem zentralen Werk “Against method. Anything goes” herauszuarbeiten, wie “Wissenschaft als Kunst” praktiziert und realisiert werden könnte. Denn dies war auch ein zentrales Anliegen von Heinz von Foerster, von “Trivialisierungsanstalten” zur bibliothekarischen Wissensverwaltung wegzukommen.

    Soweit erkennbar, finden sich die epistemologischen Preziosen als Theorie-Kunstwerke aller Ahnherren unter dem Dach der Systemtheorie versammelt. Was allerdings etwas verwundert, ist die unübersehbare Tatsache, dass deren ererbtes Instrumentarium durch die Systemtheorie doch nicht so recht und vollumfänglich genutzt zu werden scheint und auch die Tradition bislang nicht so verfolgt wurde, wie sie angedacht war, um sich auch weiter differenzieren zu können.

    Sofern es sich um transformative konditionierte Ko-Produktion dreht, die den Weg in die nächste Gesellschaft zu bahnen vermag, muss schon klar sein, dass der Fokus auf Evolution gerichtet bleiben muss. Und Evolution bedeutet “Schöpfung und Planung”. Insofern muss auch die kreative Logistik stimmen. Mit obsoleten Methoden an Logik kommt man nämlich nicht weiter und rotiert in messerscharfen Schlussfolgerungen rationaler Beweisführung mit Re-Entry im Kreis einer als “transklassisch“ bewerten Methode, die mit “Kenogrammatik”,
    -unter Verwendung des Begriffs “kenos = leer”- nichts anderes repräsentiert, als Unkenntnis altgriechischer Sprache, um anschließend „polykontexturale“ Worthülsen für das “Bewußtsein von Maschinen” zu produzieren. Evolution jedoch ist kein Leerkörper als Nullsummenspiel, darauf verweist auch Luhmann.

    Um nun zum einen- sofern geisteswissenschaftliche Ansätze gefragt sind- zunächst Hegel zu rehabilitieren, dessen Philosophie keineswegs rein auf die Logik und die “Phänomenologie des Geistes” zu reduzieren ist, sondern speziell die Rekursivität betont, so erscheint es insgesamt doch etwas zu kurz gedacht, sich auf Gotthard Günthers “Bewußtsein von Maschinen” als epigonalen kybernetischen Wiederentdecker Hegels zu verlassen mit seinen Versuchen “Reflexion” und “Selbstreferentialiät” FORMAL WIDERSPRUCHSFREI darstellen zu wollen.
    Ohne das Original gelesen zu haben, “Hegel, für den der Begriff nach wie vor in seiner Dialektik des Werdens eine große Rolle spielt, eher zu umgehen.” erscheint etwas riskant.
    Gotthard Günther beschreibt in seiner Theorie nämlich “Alles und Nichts”, was nach den “Gesetzen der Form” formal identisch ist. “Beiden fehlt jegliche Form überhaupt” Seine Theorie bleibt so leer, wie seine Grammatik und oszilliert im Recycling von Ideen im Re-Entry im Kreis.

    Hätte Gotthard Günther Hegel verstanden, so wäre ihm diese Passage gewiss nicht entgangen:

    “Das Bekannte überhaupt ist darum, weil es bekannt ist, nicht erkannt. Es ist die gewöhnlichste Selbsttäuschung wie Täuschung anderer, beim Erkennen etwas als bekannt vorauszusetzen und es sich ebenso gefallen zu lassen; mit allem Hin- und Herreden kommt solches Wissen, ohne zu wissen, WIE IHM GESCHIEHT, nicht von der Stelle.”
    (Hegel, Vorrede zur Phänomenologie des Geistes )

    Als Kybernetiker hätten ihm auch die Unterschiede zwischen positiver und negativer Rückkopplung in der Dynamik von isentropen und Prozess-Wirkungsgraden bekannt sein dürfen, die jeder Techniker bzw. Heizungsinstallateur kennt.

    Rekursionen im Sinne Hegels kommen bei Gotthard Günther nämlich nicht vor. Die Negation der Negation schafft er in seinem trivialen Maschinen -Bewußtsein in Aufrechterhaltung rationalistischer Spitzfindigkeiten eines Denkens auf Basis des cartesianischen Leib-Seele – Dualismus dann doch nicht so ganz:

    Hierzu ein Zitat Gotthard Günther:
    “Der Mensch hat bisher in seiner technischen Entwicklung zwei grundverschiedene Ideen der Maschine konzipiert. Die erste ist die klassisch-archimedische Maschine, deren Zweck ist, Arbeit zu produzieren.
    Neben diese ist die Idee der ‘zweiten’ Maschine getreten, von der man nicht mehr Arbeit, sondern Information erwartet. Die ‘erste’ Maschine ist in Analogie zum menschlichen Arm (und Hand) entworfen worden, von der zweiten wird erwartet, dass sie eine Reproduktion des menschlichen Gehirns darstellen soll. Denn nur das menschliche Gehirn verarbeitet Information” (GG: “Die ‘zweite Maschine’. Beiträge zur Grundlegung einer operationsfähigen Dialektik”)

    Wenn man auf dieser Basis nur kurz nachfragen würde, wie denn das informations-durchgeistigte Maschinengehirn zunächst zu Bewusstsein und lange später erst zu Geist, zunächst einmal über die Stufenleiter mit systematischer “Anstrengung und Arbeit am Begriff” auch zur “Phänomenologie des Geistes” kommen könnte:

    A. Bewußsein
    I. Die sinnliche Gewißheit und das Dies und das Meinen
    II. Die Wahrnehmung oder das Ding und die Täuschung
    III. Kraft und Verstand, Erscheinung und übersinnliche Welt

    dann könnten einem schon so manche Zweifel kommen, ob hier nicht bereits vom Ansatz einer “operationsfähigen Dialektik” her, eher ein Zauberlehrling am Werk war, der seine eigenen Besen doch nicht so ganz im Griff gehabt haben könnte. Zumindest fühlt man sich angesichts der “syntaktischen Mißgeburten” der “Kenogrammatik” mit “Episto-Schwafel” (vgl. Heinz von Foerster “Betrifft: Erkenntnistheorien” ) an Karl Kraus erinnert:

    “Wäre Wissen eine Angelegenheit des Geistes, wie wär’s möglich, dass es durch so viele Hohlräume geht, um, ohne eine Spur seines Aufenthaltes zurückzulassen, in so viele andere Hohlräume überzugehen?” Karl Kraus

    Hierzu dann Hegel aus der “Enzyklopädie der philosophischen Wissenschaften III” (HTWA, Band 10)

    “Die Erkenntnis des Geistes ist die konkreteste, darum höchste und schwerste. ERKENNE DICH SELBST, dies absolute Gebot hat weder an sich noch da, wo es geschichtlich als ausgesprochen vorkommt, die Bedeutung nur einer SELBSTERKENNTNIS nach PARTIKULÄREN Fähigkeiten, Charakter, Neigungen, Schwächen des Individuums, sondern die Bedeutung der Erkenntnis des Wahrhaften des Menschen an und für sich, des WESENS selbst als Geistes” (Hegel, HTWA 10, S.9)

    “Die Bücher des ARISTOTELES über die SEELE mit seinen Abhandlungen über besondere Seiten und Zustände derselben sind deswegen noch immer das vorzüglichste oder einzige Werk von spekulativem Interesse über diesen Gegenstand. Der wesentliche Zweck einer Philosophie des Geistes kann nur der sein, den Begriff in die Erkenntnis des Geistes wieder einzuführen, damit auch der SINN jener ARISTOTELISCHEN BÜCHER wieder aufzuschließen” (Hegel, HTWA 10, S.11)

    Seine gesamte Enzyklopädie führt Hegel hin zu einem längeren Zitat aus ARISTOTELES METAPHYSIK XII 7, mit der er auch die Rückkehr des absoluten Geistes zu sich selbst in der Philosophie vollendet.

    Im Anhang finden sich dann Hegels Anweisungen zu seiner IN DER TAT auch operationsfähigen Dialektik („Anmerkungen der Redaktion zu band 8,9 und 10“)

    „Die Philosophie ist WESENTLICH Enzyklopädie, indem das Wahre nur als Totalität und nur durch UNTERSCHEIDUNG und BESTIMMUNG seiner UNTERSCHIEDE die NOTWENDIGKEIT derselben und die FREIHEIT des GANZEN sein kann; sie ist also notwendig SYSTEM.“ Und: „Ein Philosoph OHNE SYSTEM kann nichts Wissenschaftliches sein..“
    ( Hegel, Enzyklopädie der philosophischen Wissenschaften im Grundrisse. Zum Gebrauch seiner Vorlesungen. § 7) (Hegel, HTWA 10, S. 421)

    Es dreht sich bei Hegel um System-Philosophie und nicht vorrangig um Logik als Methode. Die zweiwertige Logik soll auch durch die Dialektik keineswegs bekämpft, sondern aufgenommen, aufgehoben und perfekt be-inhaltet werden. Das wiederum bedeutet auch
    den Salto mortale rückwärts ohne Netz und doppelten Boden, um aus der “Zirkuskuppel ratlos” auch punktgenau die Rekursion zur ersten Unterscheidung zu schaffen und sich selbst auch in die Form zu bringen.

    “Aber nicht das Leben, das sich vor dem Tode scheut und von der Verwüstung frei bewahrt, sondern das ihn erträgt und in ihm sich erhält, ist das Leben des Geistes. Er gewinnt seine Wahrheit nur, indem er in der absoluten Zerrissenheit sich selbst findet. Diese Macht ist er nicht als das Positive, welches von dem Negativen wegsieht, wie wenn wir von etwas sagen, dies ist nichts oder falsch, und nun, damit fertig, davon weg zu irgend etwas anderem übergehen; sondern er ist diese Macht nur, indem er dem Negativen ins Gesicht schaut, bei ihm verweilt. Dieses Verweilen ist die Zauberkraft, die es in das Sein umkehrt.”
    Hegel, Vorrede zur Phänomenologie des Geistes

    Und das ist nun eine Frage der Syllogistik, die auf Aristoteles zurückverweist.

    In den “Laws of Form” findet sich dann dieser Verweis in Appendix 2 S. 114:
    “Im Vorbeigehen wollen wir bemerken, dass, wie uns Prior (“Formal logic”) erinnert, kurze Einblicke in den Pfad zu dieser Identität in ARISTOTELES Werk sichtbar werden, der auf eine Form Bezug nimmt, die neulich ausführlicher von Ladd-Franklin (“Mind”) beschrieben wurde, in welcher das, was sie einen Antilogismus nennt, DREI SYLLOGISMEN in sich kondensiert. Hier bringen wir eine weitere Stufe ans Licht, wo die DREI-IN-EINEM-NATUR des SYLLOGISMUS ohne Rückgriff auf ein Bild oder einen Antilogismus aus seiner TRANSKRIPTION alleine hervorgeht”

    Die Syllogistik wiederum scheint eine Frage der Handwerkskunst zu sein, Form und Inhalt in perfekten Proportionen in Form zu gießen und den Beobachter/Operator/Autor/Künstler in Selbstreferenz und eigenverantwortlich für die Güte seines Werkes mit einzubeziehen. Diese Anweisungen finden sich in den “Gesetzen der Form” als hohe Kunst der Logistik und als Kompositions-Anleitung für die magische Musik der Mathematik in Form der „Kunst der Fuge“.

    Will man nun “scharfe Begriffe” finden, um mit Euler’schen Wellengleichungen , mit der imaginären Zahl i in allen Höhen und Tiefen im Imaginären Raum und mit reellen, nicht rationalen und transzendenten Zahlen zu rechnen, wie z.B, der Eulerschen Zahl e als Basis des natürlichen Logarithmus e , der Kreiszahl π, oder auch mit φ, τ , womit sich Größenverhältnis des “Goldenen Schnitts” wiedergegeben lässt, um auch mitsamt allen enharmonischen Verwechselungen durch Vorzeichenänderungen rekursiv in „Temporalisierung der Komplexität“ in allen drei Sinndimensionen mitschwingen zu können, dann bedarf es nur der Einführung eines einzigen zentralen Begriffs, der sich auch aus der konditionierten KO-Produktion der triadischen Struktur des kommunikativen Handelns bei Luhmann ableiten ließe.

    Es bedarf daher des VERSTÄNDNISSES, wirksam als Motiv und operative, kreative und transformative Antriebskraft der “Kunst der Compliance” , die auf eine Differentialgleichung zweiten Grades zu reduzieren ist. Auch darstellbar als logistische Funktion, sowie in Form von Funktoren bei Heinz von Foerster bzw. Modulatorfunktionen bei George Spencer-Brown.

    http://de.wikipedia.org/wiki/Compliance
    http://de.wikipedia.org/wiki/Compliance_%28Physiologie%29

    Compliance setzt jedoch Operatoren – Operanden in doppelter Kontingenz voraus, die SELBSTVERSTÄNDLICH und – unter Selbstkorrektur – auch bereit sind, sich in Regeltreue an den “ERSTEN KANON. VEREINBARUNG ÜBER DIE ABSICHT.” der “Laws of Form” zu halten. um Rekursionen in zweifacher operativer Schließung vollziehen zu können.

    Die „Laws of Form“ sind eindeutige und glasklare Regeln. Wer schummelt, hat es sich selbst zu zuschreiben. Dominanz/Unterwerfungs-Schemata und auch „intellektueller Schrotthandel“
    sind nicht erlaubt. (vgl. Luhmann, GdG. S.1096 ff zu Massenmedien und ihre Selektion von Selbstbeschreibungen)

    „Mathematics is the science of what we KNOW of what we have defined. It has no place for opinions or beliefs of any kind” (LoF, Vorwort zur Int. Ausgabe, S. X)

    Hierzu dann auch Heinz von Foerster (Zitat aus einem Vortrag anlässlich Luhmann’s Geburtstag im Februar 1993):
    “Das Wesentliche der Topologie einer zweifachen Schließung
    [vgl. Autopoiesis und “operative Schließung”] ist, dass sie nicht nur die Pseudolösung der Hierarchie vermeidet, bei der man immer den höheren Instanzen die Verantwortung zuschiebt, um die eigene zu vermeiden, sondern auch durch die damit verbundene heterarchische Organisation die faszinierende Möglichkeit besteht, den Operator zum Operanden und den Operand zum Operator werden zu lassen. [Vertrauen mit Gewährleistung einer flexiblen, gleichwertigen Rollenverteilung im Dialog auf Augenhöhe]
    Das ist ja das, was wir ununterbrochen verstehen wollen, uns jedoch durch die Struktur einer ein-dimensionalen [bzw. zweiwertigen, linear-kausalen] Logik bis jetzt unmöglich gemacht wurde. Durch die Austauschbarkeit der in Wechselwirkung stehenden Funktoren ist uns aber unsere Freiheit des Handelns zurückgegeben und damit auch unsere Verantwortung.“

    Insofern, nichts für ungut, Herr Professor Baecker, und verzeihen Sie bitte die Störung,
    wenn ich nun “advocatus diaboli” gespielt habe und mit etwas mephistophelischem Schalk im Nacken, die Bibliothek des Hauses etwas in Unruhe und Unordnung versetzt habe. Um „order from noise“ zu erzeugen und zur Evolution bedarf es eben auch der Dekonstruktion als

    “Ein Teil von jener Kraft,
    Die stets das Böse will UND stets das Gute schafft.”

    Ich bin festen Überzeugung und wage zu Pfingsten nun auch die Wette,
    dass Goethe den Streit mit Newton um die Natur des Lichts und der Farben ganz souverän gewinnen wird und dass Paul Feyerabend – im Streit gegen den kritischen Rationalismus von Sir Karl Popper – mit seiner “Wissenschaft als Kunst” auch Recht bekommt. Er stellt auch dar,
    :…” dass die Auseinandersetzung zwischen Goethe und Newton nicht eine Auseinandersetzung war zwischen einer ‘mathematischen’ und einer ‘qualitativen’ Naturauffassung -denn der Streit ‘quantitativ-analytisch’ und ‘qualitativ – ganzheitlich’ spielt auch INNERHALB der REINEN MATHEMATIK eine große und nicht zu übersehende Rolle.”

    Hierzu dann Gottfried Benn zu “Goethe und die Naturwissenschaft”, auch auf Basis seiner eigenen Grundüberzeugung:

    “Die Wissenschaft läuft, sabbert staatsgeschützt, pensionsberechtigt, mit Witwen- und Waisenversorgung ausflussartig dahin, wagt keine Entscheidung, keine Wertung, ist so begnügsam. Methodisch verweichlicht, empirisch angezäumt, fürchtet das Allgemeine,
    flieht die Gefahr.” Briefe an F.W. Oelze, 27.1.1933″

    .. “und damit rühren wir an die intimste und innerste Struktur des Goetheschen Seins, betreten sein zentrales Reich, auch das erregendste, das unabsehbarste, für uns heute von so enormer Aktualiät: denn dies ANSCHAULICHE DENKEN, ihm von Natur eingeboren, aber dann in einer sich durch das ganze Leben hinziehenden systematischen Arbeit als EXAKTE METHODE BEWUSST GEMACHT und dargestellt, als HEURISTISCHES PRINZIP mit aller polemischen Schärfe dem mathematisch-physikalischen Prinzip gegenübergestellt, es ist auf eine kurze Formel gebracht, der uns heute so geläufige Gegensatz von Natur, Kosmos, Bild, Symbol oder Zahl, BEGRIFF; WISSENSCHAFT; von ZUORDNUNG der Dinge zum Menschen und seine natürlichen Raum oder ZUORDNUNG der BEGRIFFE in widerspruchslose mathematische Reihen; von IDENTITÄT alles SEINS oder CHAOS zufälliger, korrigierbarer, wechselnder Ausdrucks- und DARSTELLUNGSSYSTEME;..”

    Es verbleibt nun, mit George Spencer-Brown zu enden und ihn -trotz mancher persönlicher Mimositäten in diesem Blog – ihn auch nachträglich noch gebührend persönlich zu ehren.
    Wer als genialer Künstler mit höchstsensiblem Abstraktionsvermögen und in seinen Fähigkeiten mit dem schöpferischen “dritten Auge” wahrnehmen zu können völlig mißverstanden wird, kann auch unbequem, bissig und eigen wegen. Wenn man seine “Laws of Form”, trotz unterschiedlichster Zugangswege, allerdings X-beliebig auf das operative Kalkül eines Nullsummenspiels zurechtschnippelt, ruiniert ein derartiger Ansatz seine ganze Kunst. In dieser Form selektiv rezipiert zu werden hält lein Künstler aus. Was sich auch vielfältig aus seinen drei “kanonischen Schriften” liest.

    “IN DER TAT beginnt die gesamte Disziplin der Kunst dort, wo der denkende Theoretiker aufhört”

    Nun nehme ich an, es handelt sich angesichts der guten Ansätze lediglich um das altbekannte
    Problem von Betriebsblindheiten, sodass gelegentlich aus Beobachterebene 2. Ordnung Einmischung und Rückmeldung erfolgen muß , “dass ein Beobachter nicht sieht, dass er nicht sieht, was er nicht sieht.“

    falls dem so wäre, kein Grund zur Sorge.
    Auch hier vermag der Herr Geheimrat mit seinem “Erste-Hilfe-Kästchen” zur Seite zu sehen:

    “Was ist das Schwerste von allem? Was Dir das Leichteste dünket:
    Mit den Augen zu sehen, was vor Augen Dir liegt. (Goethe, Xenien)

    Darüber hinaus gilt, speziell für die Soziologie:

    “Innerhalb einer Epoche gibt es keinen Standpunkt, eine Epoche zu betrachten”

    “Eine Chronik schreibt nur derjenige, dem die Gegenwart wichtig ist”

    “Aber man muss wissen, wo man steht und wohin die andern wollen”

    Und sofern es sich um perfekte Be-Inhaltung gemäß der “Laws of Form” dreht,
    gilt gleichermaßen:

    “Derjenige, der sich mit Einsicht für beschränkt erklärt, ist der Vollkommenheit am nächsten”.

    “Die Gewalt einer Sprache ist nicht, dass sie das Fremde abweist, sondern dass sie es verschlingt”

    Na denn?
    So gesehen, dürfte der “Wissenschaft als Kunst” im Eigensinne der Systemtheorie kaum
    mehr was im Wege stehen?

    Zur Aussendung der “Heiligen Geistes” nach langjähriger “Anstrengung am Begriff” mit Übungen zur “Aufklärung 2.0″ verbleibt nun nur noch die göttliche “Erleuchtung” zu wünschen.

    Frohe Pfingsten!

    “O glücklich, wer noch hoffen kann
    Aus diesem Meer des Irrtums aufzutauchen!
    Was man nicht weiß, das eben brauchte man,
    Und was man weiß, kann man nicht brauchen.”

  13. deaXmac permalink

    Leider habe ich auf meinen vorherigen Kommentar noch keine Antwort von Ihnen erhalten, Herr Professor Baecker. Insofern kann ich auch nicht erkennen, ob mein Text nicht verständlich genug war oder auch aus anderen Gründen nicht auf Resonanz stieß.

    Ich möchte nochmals auf diesen Satz zurückkommen:
    “Das dürfte ein wichtiges Erbe der Kybernetik sein, die mit der Informations- und Kommunikationstheorie eher digitalisierende als analogisierende Begriffe bevorzugt.”

    Denn hierbei stellt sich mir die Frage, dass sich weder bei George Spencer-Brown, noch bei Heinz von Foerster auch nicht bei Niklas Luhmann Hinweise finden lassen, dass sich das Vorgehen, digitalsierende Begriffe den analogisierenden vorzuziehen, im operativen Kalkül bewährt hätten.

    Hierzu auch Luhmann (GdG, S. 360)

    “Ein Code besteht aus zwei entgegengesetzten Werten und schließt auf dieser Ebene (nicht natürlich “im Leben”) dritte und weitere Werte aus. Damit wird die unbestimmte, tendenziell zunehmende Möglichkeit der Ablehnung des kommunizierten Sinnvorschlags in ein hartes Entweder/Oder überführt, also eine ‘analoge’ Situation in eine ‘digitale’ transformiert; und gewonnen wird damit eine klare Entscheidungsfrage, die für Alter wie für Ego dieselbe ist. Nicht deren Meinungen werden codiert, sondern die Kommunikation selbst, und dies in einer Weise, die auf Lernfähigkeit angewiesen ist, nämlich auf Spezifikation der Kriterien für eine richtige Zuordnung des positiven bzw. negativen Wertes (während aus der uncodierten Ausgangssituation nur zunehmende Enttäuschung, Verhärtung, Konflikte resultieren könnten).

    Codes fungieren, wie andere Unterscheidungen auch, als Zwei-Seiten-Formen, die ein Beobachter benutzen oder nicht benutzen kann. Sie haben die Eigenart einer Unterscheidung auch insofern, als sie jeweils nur auf der einen und nicht zugleich auf der anderen Seite bezeichnet werden und nur so als Anschluß- und Ausgangspunkt einer weiteren Operation dienen können. Mit der Gleichsetzung des Unterschiedenen würde der Beobachter eine Paradoxie (nämlich die Paradoxie der Selbigkeit des Verschiedenen) erzeugen und sich selbst darauf hinweisen, dass es so nicht geht. Die Besonderheit der Codes, verglichen mit anderen Unterscheidungen, besteht darin, dass der Übergang von der einen zur anderen Seite, also das Kreuzen der Grenze erleichtert wird.

    Das Kreuzen der innern Grenze des Codes wird vor allem dadurch erleichert, dass es von moralischen Konsequenzen entlastet wird. Es hat nicht zur Folge, dass man vom Guten zum Schlechten übergeht oder gar böse wird. Dies zu lernen, erfordert allerdings einen langen Prozess”

    Diesen langen Prozess zu verfolgen scheint in der Tat aus Perspektive der Soziologie ein Problem, zumal es sich bei evolutionären Prozessen in der Gesellschaft um Langzeitbeobachtung von Entwicklungen in historischen Verläufen über Jahrzente bzw. Jahrhunderte drehen kann.

    Aus Sicht der Kybernetik Heinz von Foersters, auf Basis der Biophysik bzw. Physiologie lassen sich nichtlineare Entwicklungen von Wellenfunktionen in ihren Wechselwirkungen mit konstruktiven und destruktiven Interferenzen anhand des Unterschieds zwischen negativen und positiven Rückkopplungsschleifen ableiten. Diese Verläufe sind bereits mit der ersten Unterscheidung im weiteren Verlauf von Funktionsgleichungen zweiten Grades vorprogrammiert.

    http://en.wikipedia.org/wiki/Negative_feedback
    http://en.wikipedia.org/wiki/Positive_feedback

    Für die Soziologie beträfe dies die Langzeitbeobachtung in der Sinndimension “Zeit” in ihrer konditionierten, asymmetrischen, irreversiblen und zukunftsoffenen vorher-nachher-Struktur.

    Während analoge Techniken die strukturellen Kopplungen durch negative
    Feedback-Schleifen zur Stabilisierung von Systemen mit gekoppelten Oszillatoren beitragen und das Gesamt-System zur Aufrechterhaltung konditionierter Ko-Produktion zukunftsoffen halten, insofern auch die weitere Differenzierung von Alternativen in Strukturbäumen im Hinblick auf lanfristige Entwicklungen ermöglichen, bleibt Rekursivität in Anwendung der Digitalisierungstechnik bei positiver Rückkopplung langfristig der Weg versperrt.

    Mit Wahl der Digitalisierung beschneidet man sich selbst die Rekursionsmöglichkeit.
    Das System treibt auf Basis von System/Umwelt-Differenzen auf eine sich selbst aufschaukelnde, immer instabilere Scherenentwicklung zu, bei der sich die einseitige Selektion langfristig in doppelter Kontingenz als alternativlose Sackgasse erweist. Die strukturelle Kopplung zwischen den beiden Oszillatoren reißt ab und und das gesamte System kippt.

    Dieses Phänomen ist der Medizin als “circulus vitiosus” in vielfältigsten Formen altbekannt.
    Eine kreisende Erregung kann über hochgefährliche Herzrhythmusstörungen zum “rasenden” Herzstillstand bei Kammerflimmern führen.

    Ich weiß nicht, ob Ihnen die Analogien zum Organismus zur Überprüfung und Anpassung der Methodologie nützlich und zweckdienlich sein könnten. Für eine Antwort bedanke ich mich vorab.

    • Liebe Frau Menges, danke für Ihr Nachhaken. Jetzt beginne ich Sie zu verstehen. Sie teilen ein interessanterweise weit verbreitetes Mißverständnis der Theorie Lehmanns, das darin besteht, seine Theorie der Funktionssysteme mit seiner Theorie der Gesellschaft gleichzusetzen. Tatsächlich sind von den drei Systemtypen, die Luhmann kennt, (a) Gesellschaft, (b) Organisation und (c) Interaktion, nur die Subsysteme der Gesellschaft, die Funktionssysteme, in der von Ihnen zitierten Art und Weise binär codiert. Schon die Organisation ist es nicht und die Interaktionssysteme sind es erst recht nicht. Für die Gesellschaft insgesamt eruiert Luhmann eher erschrocken die Möglichkeit, dass sich hier der Supercode “Inklusive/Exklusion” durchsetzt.

      Aber der entscheidende Punkt ist, dass bereits die Funktionssysteme nur um den Preis der Invisibilisierung der Paradoxie der Ununterscheidbarkeit des Unterschiedenen binär codiert sind, also den ausgeschlossenen Dritten immer mitbewegen, der dann von Organisationen in Anspruch genommen werden kann, die die Codes der Funktionssysteme durch mehrwertige Programme ergänzen, und von Interaktionssystemen für die Ausformulierung sowohl von Kritik wie, in der Gegenbewegung, Ideologie adressiert wird.

      Wenn man Binarität also überhaupt mit Digitalisierung gleichsetzen möchte, sind die Codes der Funktionssysteme intern wie extern von analogen Kommunikationen umspült und unterspült, ohne die sie das Material nicht finden würden, in dem sie die zum Funktionssystem passenden Ereignisse dann reproduzieren können.

      Die Systemtheorie operiert nicht digital, sondern zweigleisig digital und analog. Das tut sie schon deswegen, weil sie streng genommen eine Systeme-in-ihren-Umwelten-Theorie ist, für die Ausdifferenzierung und Reproduktion mit jedem Ereignis neu auf dem Spiel stehen. Ohne die wechselseitige Überprüfung von analogen und digitalen Anschlüssen käme die Autopoiesis der Systeme sofort zum Erliegen. Und weil das so ist, benötigt man die beiden Funktionen der Oszillation und des Gedächtnisses, um diese Autopoiesis zu beschreiben.

  14. dass die binär codierten kommunikationsmedien von analogen kommunikationen “umspült” und “unterspült” werden, und dass andernfalls jede kommunikation sofort zum erliegen käme, ist ein interessanter gedanke, der so in der systemtheorie (luhmannscher provenienz) eher selten zu finden ist. haben Sie denn auch eine Idee, wie sich dies in der begrifflichkeit von “autopoiesis” und “beobachten” verankern ließe? bräuchte man dazu nicht eine theorie des beobachters, wie sie maturana vorschlägt? also einen beobachter aus fleisch und blut?

    ich selber arbeite schon länger an diesem thema und hätte da auch einen vorschlag. mich würden aber erst einmal Ihre gedanken dazu interessieren.

    • Beobachter “aus Fleisch und Blut” haben wir ja in der Umwelt sozialer Systeme in Hülle und Fülle. Kein Problem, sie als Quellen und Adressaten von “Spülvorgängen” in Anspruch zu nehmen. Für die Unterscheidungen sozialer Systeme genügt es in jedem Fall, sie zu kontextualisieren, sie in den Raum ihrer Unterscheidung wiedereinzuführen, sie mit der Paradoxie der Ununterscheidbarkeit des von ihnen Unterschiedenen zu konfrontieren etc., um in einem polykontexturalen Gewebe von Unterscheidungen zu landen, dramatisiert von Gotthard Günthers Akzeptions- und Rejektionswerten, die allen Ansprüchen an produktive und kreative Unschärfe genügen.

      • ich ahne, was Sie meinen, obwohl ich es im detail (noch) nicht nachvollziehen kann. ich selber präferiere einen anderen weg, der aber vermutlich zu einem vergleichbaren ergebnis (dem „polykontexturalen gewebe von unterscheidungen“) führt.

        ich schlage vor, die performatorisch-mimetische (vorsprachliche) dimension in die theorie des beobachters einzuführen (etwas, was Maturana m. e. zum mindesten implizit immer getan hat). auf dieser ebene sind wir als beobachter immer schon – oszillierend, balancierend – in resonanz mit den beiden (orthogonal zueinander stehenden) phänomenbereichen, in denen wir wie alle lebenden systeme existieren: mit dem bereich, in dem sich unsere körperlichkeit realisiert und mit dem bereich, in dem wir unsere beziehungen realisieren.

        vom prozess der gesellschaftlichen synthesis her gesehen (um hier mal den begriff der autopoiesis zu vermeiden) lässt sich dann fragen, wie dieser die individualität lebendiger individuen in dienst nimmt; und inwieweit er dabei seine eigenen ressourcen fördert oder untergräbt, also raubbau betreibt.

        auf der seite des beobachters wird dann der begriff der achtsamkeit (mindfulness) wichtig, verstanden als „aufmerksamkeit für das muster, das verbindet“ (Bateson), aus meiner sicht eine schlüsselqualifikation für das überleben in der „nächsten gesellschaft“. mit der dann z. b. auch autoritäre strukturen „um- und unterspült“ werden können.

        können Sie damit etwas anfangen?

      • Ja, eine Fragerichtung, die mir einleuchtet und mich an Varelas Suche nach Formen einer verkörperten Kognition erinnert, aber auch an Malinowskis immer noch großen Wurf einer Kulturtheorie, die Körper, Geist, Technik, Gesellschaft und Natur funktional aufeinander zu beziehen verstand — ganz zu schweigen natürlich von Parsons’ Systemtheorie im Schnittpunkt von Kultur, Gesellschaft, Persönlichkeit (mit Freud) und Organismus. Meines Erachtens beginnt so, nämlich nicht nur multireferentiell, sondern unter expliziter Würdigung präziser Systemreferenzen, eine “vernünftige” Kognitionswissenschaft.

  15. deaXmac permalink

    Daran anschließend, dass der Körper und Organismus wieder ins Spiel kommen und dass “unter expliziter Würdigung präziser Systemreferenzen, eine “vernünftige” Kognitionswissenschaft“ erst beginnt, möchte ich nochmals
    zurückkehren zu einigen Kernthesen meiner vorherigen Beiträge, um aus medizinisch naturwissenschaftlich Perspektive einige ergänzende Fragestellungen hinzuzufügen.

    Ich möchte dabei den Fokus auf die naturwissenschaftlichen Zusammenhänge der Systemtheorie verweisen, insbesondere die Evolutionstheorie und speziell auch auf die Theorie des Gedächtnisses. Dies als ergänzender Versuch, da ich mittlerweile vermute, dass sich möglicherweise wesentliche Missverständnisse und Fehlinterpretationen zwischen geistes- und naturwissenschaftlichen Ansätzen verbergen könnten, die in Ergänzung bzw. Umdeutung der Semantik mit präziseren physiologischen Systemreferenzen vielleicht auch Verständnis-Lücken einer „vernünftigen Kognitionswissenschaft“ schließen könnten.

    Hierzu Luhmann (GdG, Evolution, Kap. XIII S. 583)
    „Wir benötigen eine derart allgemeine, auch für mathematische, neurobiologische und psychologische Zwecke geeignete Theorie des Gedächtnisses, um in Frage zu stellen, wie das Gedächtnis der Gesellschaft und ihrer Teilsysteme funktionieren könnte“

    Zum Thema „Funktion des Gedächtnisses“ bezieht sich Luhmann in unterschiedlichen Aspekten sowohl auf Heinz von Foerster als auch auf George Spencer-Brown.
    Wobei sich über die Kybernetik/ Biophysik/Physiologie erstaunliche mathematische Bezüge zu den „Laws of Form“ finden, die sich im Begriff der „Compliance“ bündeln und aufgrund der Isomorphie des Begriffs wiederum auf Bezüge zur Kommunikationstheorie verweisen.

    Hier zur Etymologie und den unterschiedlichen Anwendungen / Bedeutungen des Compliance – Begriffs. Die Semantik verweist im kommunikativen Handeln jeweils
    auf Regeltreue in Form von Einhaltung von Gesetzen und Richtlinien, Verhaltensmaßregeln.
    Im übertragenen Sinne daher auf die „Laws of Form“.

    http://de.wikipedia.org/wiki/Compliance
    http://de.wikipedia.org/wiki/Compliance_%28BWL%29
    http://de.wikipedia.org/wiki/Compliance_%28Medizin%29

    Legt man die Physiologie der Compliance zugrunde – in der Medizin ist die Compliance, trotz umfassender Bedeutung, vor allem im Rahmen von Lungenfunktions-Untersuchungen relevant –

    http://de.wikipedia.org/wiki/Compliance_%28Physiologie%29
    – man beachte die Formel und den Sinuskurvenverlauf.

    so ergeben sich sowohl aus der Formel – als Differentialgleichung zweiten Grades –

    als auch anhand des sigmoidalen Kurvenverlaufs, weitere Differenzierungsmöglichkeiten und Bezüge, die Heinz von Foerster als Funktoren bzw. George Spencer-Brown als Modulatorfunktionen beschreibt.

    Vertieft man sich einmal ganz unbefangen in den Kurvenverlauf -der sich im übrigen auch in der Sinnesphysiologie finden läßt- und verfolgt diesen -losgelöst von den üblichen Bedeutungen – so läßt sich – in systemtheoretischen Zusammenhängen gedacht – Folgendes daraus erkennen:

    – Zunächst die System/Umwelt – Differenzen,
    – Dann die reziproke Koppelung der sich dynamisch im nichtlinearen Verlauf ändernden Variablen, die sich als rekursiv operierende Parameter, gegenläufig steuern.
    – Des Weiteren lässt sich auch ableiten, dass es vom Beobachter abhängt, wie die operativen Parameter in ihren Differenzen – als Raum- und Zeitdistanzen- benannt werden.
    – Zudem wird erkennbar, dass übliche Zeitbegriff, den wir mit Uhren messen – wie Sekunden, Minuten etc. – lediglich als Maßstab zum Registrieren von Frequenzen, Dauer, Distanzen, und Orts-, Zustands- bzw. Strukturänderungen dient.
    – Woraus wiederum folgt, dass sich bei der Beobachtung und langsamen Verfolgen der Kurve unser gängiger Zeitbegriff in einen rhythmischen Fluß konditionierter, irreversibler Zustandsänderungen mit zukunftsoffener vorher – nachher Struktur auflösen lässt.
    – Zeichnet man die Compliance – Kurve bei Lungenfunktionsmessungen auf so kann man darüber hinaus auch den rekursiven Verlauf im Wechsel von Ein- und Ausatmung beobachten.

    Insofern finden sich in Begriff der Compliance – die auch als logistische Funktion bzw. Euler’sche Wellengleichung mit imaginären Zahlen darstellbar wäre – sowohl die Modulatorfunktionen der „Laws of Form“ von George Spencer-Brown als auch die Funktoren, die Heinz von Foerster anlässlich Luhmann’s Geburtstag im Februar 1993 beschreibt.
    Wie „nicht-triviale Maschinen“ – nicht nur im Gehirn, sondern auch im menschlichen Organismus- funktionieren, ist durchaus auch in vivo darstellbar.
    Zahlreiche abstrakte Begriffen der Theorie lassen sich auch einfacher und wesentlich plastischer am Organismus beobachten und darstellen. Der Vorteil ist zudem, man hat ihn immer dabei, um sich beim Beobachten unmittelbar einen Begriff machen zu können. Kontinuierliche Selbstbeobachtung, begleitend zur Vielfalt seiner Naturbetrachtungen
    gehörte auch zur Goethes’s Arbeitsweise, was sich dann auch in perfekter Form und Beinhaltung seiner Kunst präsentiert.

    „Die große Schwierigkeit bei psychologischen Reflexionen ist, dass man immer das Innere und Äußere parallel oder vielmehr verflochten betrachten muß. Es ist immerfort Systole und Diastole, Einatmen und Ausatmen des lebendigen Wesens; kann man es auch nicht aussprechen, so beobachte man es genau und merke darauf.“

    Hierzu auch nochmals das Zitat von Heinz von Foerster aus seinem Vortrag

    “Das Wesentliche der Topologie einer zweifachen Schließung [doppelte Schließung als sich wechselseitig steuernde Parameter] ist, dass sie nicht nur die Pseudolösung der Hierarchie vermeidet, bei der man immer den höheren Instanzen die Verantwortung zuschiebt, um die eigene zu vermeiden, sondern auch durch die damit verbundene heterarchische Organisation die faszinierende Möglichkeit besteht, den Operator zum Operanden und den Operand zum Operator werden zu lassen. [Vertrauen mit Gewährleistung einer flexiblen, gleichwertigen Rollenverteilung im Dialog auf Augenhöhe]
    Das ist ja das, was wir ununterbrochen verstehen wollen, uns jedoch durch die Struktur einer ein-dimensionalen [bzw. zweiwertigen, linear-kausalen] Logik bis jetzt unmöglich gemacht wurde. Durch die Austauschbarkeit der in Wechselwirkung stehenden Funktoren ist uns aber unsere Freiheit des Handelns zurückgegeben und damit auch unsere Verantwortung.“

    Auf weitere medizinische Funktionsuntersuchungen, wie z.B. das EKG, aber auch Hörtests, aus denen sich auf Basis der Physiologie z.B. Entropie/Negentropie – Zusammenhänge als „order from noise“ ableiten lassen, möchte ich lediglich hinweisen.
    Es ergeben sich daraus jedenfalls eine Fülle von Parallelen zwischen Funktionsweisen des Organismus und dem systemtheoretischen Ansätzen, sofern man sich darauf einlässt, den üblichen – auch in der Medizin – Beobachtungsmodus zu verlassen, um eine etwas andere Semantik im Zusammenhangsdenken zu wählen und Anatomie, Biochemie und Physiologie in systemischen Zusammenhängen zu denken, vergleichbar, wie auch Luhmann die wechselseitigen Voraussetzungen und die ineinander verwobene Dynamik sowohl für die Sinndimensionen als auch für die drei Eintrittspforten zur Systemtheorie als Evolutionstheorie – Kommunikationstheorie –Differenzierungstheorie beschrieben hat.
    (vgl. GdG, S. 1138) .

    Insofern: Die „Laws of Form“, KybernEthik mit Rückkopplungsprozessen und Rekursionen sind überall. Auch „Evolution ist immer und überall“ (vgl. Luhmann, GdG).
    „Die “Gesetze der Form” sind die “Gesetze des Möglichen”, jedoch NICHT MEHR als die “Gesetze des Möglichen”.
    An unsere Beobachterabhängigkeit und „Existenz als eine selektive Blindheit“, womit wir
    uns durch einseitige Selektion als Beobachter erster und zweiter Ordnung immer wieder den freien Blick verstellen, müssen wir uns in einem langen Prozess offenbar erst gewöhnen.
    Alles Erkennen ist Unterschiedserkennen und Selbsterkenntnis gehört offenbar zu den schwersten Übungen überhaupt.

    „Was ist das Schwerste von allem? Was Dir das Leichteste dünket:
    Mit den Augen zu sehen, was vor Augen Dir liegt“ (Goethe, Xenien)

    Zum Abschluß, aus den „Laws of Form“, Anmerkungen Kapitel 12, S.91 f
    “Betrachten wir denn für einen Moment die Welt, wie sie vom Physiker beschrieben wird. Sie besteht aus einer Anzahl fundamentaler Teilchen, die, wenn sie durch ihren eigenen Raum geschossen werden, als Wellen erscheinen, und somit (wie in Kapitel 11) von der gleichen Laminarstruktur wie Perlen und Zwiebeln sind, und anderen Wellenformen, elektromagnetisch genannt, die , nach Ockhams Rasiermesser, vorteilhafter weise als mit konstanter Lichtgeschwindigkeit den Raum durchmessend aufgefasst werden. Alle diese erscheinen durch bestimmte Naturgesetze gebunden, welche die Form ihrer Beziehung bezeichnen.
    Nun ist der Physiker selbst, der all das beschreibt, nach seiner eigenen Auffassung selbst auf diesem aufgebaut. Kurz er ist aus einer Konglomeration eben der Teilchen, die er beschreibt, gemacht, nicht aus mehr, nicht aus weniger, zusammengehalten durch solche allgemeine Gesetze und solchen gehorchend, die er selbst gefunden und aufgezeichnet hat.
    Somit können wir der Tatsache nicht entkommen, dass die Welt, die wir kennen, aufgebaut ist (und somit in einer Weise, dass sie in der Lage ist) sich selbst zu sehen.
    Das ist in der Tat erstaunlich.
    Nicht sosehr in Hinblick auf das, was sie sieht, obwohl das fantastisch genug erscheinen mag, sondern in Berücksichtigung der Tatsache, dass sie ÜBERHAUPT SEHEN KANN.
    Aber UM (IN ORDER) das zu tun, muss sie sich offenbar trennen in mindestens einen Zustand, der gesehen wird. In diesem getrennten und verstümmelten Zustand ist, was immer sie sieht, NUR ZUM TEIL sie selbst. Wir können annehmen, unzweifelhaft sie selbst ist /d.h. von sich selbst nicht verschieden) aber bei jedem Versuch sich selbst als Objekt zu sehen muss sie ebenso unzweifelhaft so agieren, um sich von sich selbst verschieden zu machen und daher sich selbst untreu zu werden. Unter dieser Bedingung wird sie sich immer sich selbst teilweise entziehen. …
    Angesichts DER FORM, in der WIR selbst ANNEHMEN ZU EXISTIEREN; ENSTEHT das Mysterium vielleicht aus unserer Beharrlichkeit, eine Frage AUFZUWERFEN, wo es in Wirklichkeit NICHTS zu fragen gibt. …
    Somit muss die Welt, wann immer sie als physikalisches Universum in Erscheinung tritt, in uns, ihren Repräsentanten, den Anschein erwecken, mit sich selbst eine Art Versteckspiel zu spielen. Was enthüllt ist, wird verborgen werden, aber was verborgen ist, wird uns wieder enthüllt werden“

  16. deaXmac permalink

    Ergänzend zum obigen Beitrag und zum Thema Luhmann: Evolution / Gedächtnis im Vergleich zum Organismus- halte ich es für wesentlich,
    auf die Wahrnehmung aus Heinz von Foerster’s Sicht („Zukunft der Wahrnehmung: Wahrnehmung der Zukunft“ in „Wissen und Gewissen“) zu verweisen, worin er den „fortschreitenden Wahrnehmungsverfall mit einer verkommenen Sprache“ als „Infektionserreger“ einer „Dysgnosie-Epidemie“ mit „syntaktischen Mißgeburten“ beklagt, mit „vielen weit tiefer liegenden semantischen Konfusionen“ .

    „Wenn wir nicht wahrnehmen können,
    können wir die Zukunft nicht erkennen
    wir wissen daher nicht, was jetzt zu tun ist“

    Was Heinz von Foerster betont, steht nicht nur in essentiellem Zusammenhang mit adäquater Kommunikation in der triadischen Struktur von Information – Mitteilung – VERSTEHEN, dessen Bedeutung Luhmann ganz besonders akzentuiert. Verstehen hat vor allem in Wahrnehmung von Rückkopplungs – Signalen überlebensnotwendige Funktionen.
    Unterdrückung, Fehlsteuerung bzw. Ausfall von Rückkopplungen können ganz langfristig fatale Folgen haben. Durch einseitig verbleibende Selektionen – ohne die (re) -stabilisierende Funktion eines „negative feedback“, kann sich auch im Dauer-Re-Entry ein selbstbeschleunigender, pathophysiologischer Prozess hochschaukeln und zuspitzen. vgl
    http://en.wikipedia.org/wiki/Negative_feedback
    http://en.wikipedia.org/wiki/Positive_feedback
    Wie bereits erwähnt, ist dieses Phänomen in der Medizin als “circulus vitiosus” vielfältigsten Formen altbekannt. Eine kreisende Erregung kann auch hochgefährliche Herzrhythmusstörungen zum “rasenden” Herzstillstand bei Kammerflimmern führen.
    Anhand der mathematischen Gleichung lässt sich auch erkennen, dass nach der ersten Unterscheidung – gemäß den „Laws of Form“ – der Verlauf des gesamten operativen Kalküls vorprogrammiert erscheint. Dies ist dann von praktischer Relevanz, sofern zwischenzeitlich –durch Eingriff von außen, bzw. aus dem unmarked space- kein internes Crossing zur Kurskorrektur erfolgt. Anhand der Funktionsgleichungen zweiten Grades entscheidet sich bereits vom Ansatz her, in welche Richtung der gesamte Prozess autokatalytisch läuft und ob Rekursion gelingen kann.

    Dies entspräche auch den Gödelschen Theoremen, ist ein wesentlicher Gesichtspunkt zur Fehlerkorrektur und dient auch als Beurteilungsgrundlage nichtlinearer, unregulierter Langzeitverläufe. Weshalb Heinz von Foerster auch (a.a.O) darauf verweist, dass er ein Kalkül –insbesondere bei wachsender Verstärkung von Asymmetrien- nicht nur „bottom line“ – anhand des Ergebnisses -überprüft, sondern immer im Vergleich zum Ansatz, zur „top line“. Die Einfachheit des – universell anwendbaren – Vergleichs bestätigt auch wesentliche Kriterien der Gedächtnisfunktion zur (Selbst)Korrektur, um in der Unüberschaubarkeit der Zeitdimension bei sich langsam ändernden, nichtlinearen Verläufen, Bezüge zwischen Zeit -, Sach- und Sozialdimension direkt an den Kopplungsstellen beobachten zu können.

    Ein einfaches Vorgehen, das sich auch im adäquaten Umgang mit wissenschaftlichen Studien bewährt hat, sofern diese im Wesentlichen auf statistisch gewonnen Daten beruhen, um bei unüberschaubarer Datenfülle und inhaltlicher Komplexität Qualität anhand von Validität und Reliabilität überprüfen zu können. Sozial erwünschte Biases gehören bei Studien, immer noch zu den trivialsten Fehlern. Auf den Punkt gebracht: Was vom Ansatz her bereits verkehrt ist, wird auch nicht richtiger, wenn man es ständig wiederholt.

    Das Vorgehen Heinz von Foerster’s findet sich auch von George Spencer – Brown in „Wahrscheinlichkeit und Wissenschaft“ beschrieben und entspricht gleichermaßen der „Paradoxie der Wahrscheinlichkeit des Unwahrscheinlichen“, was Luhmann auch als Leitfaden zur weiteren Analyse ( vgl. GdG, „Evolution“ S. 413 ff) empfiehlt und hierbei auf die Trivialität des falschen Umgangs mit statischen Begriffen verweist.

    Die „Grundaussage ist, dass Evolution geringe Entstehenswahrscheinlichkeiten in hohe Erhaltungswahrscheinlichkeiten transformiert.“ (GdG, S. 414),
    Unter diesen Prämissen verweist das Problem der „Morphogenese von Komplexität“ wiederum unmittelbar zurück auf den Beobachter, auf Güte und Differenzierungsvermögen während des Beobachtungsprozesses und offenbart insofern auch Fragen der Logik des methodischen Vorgehens. Und zwar dahingehend, inwieweit kontinuierliche Selbstkontrolle praktiziert wird, um Oszillationen zur Kanalisierung richtiger Entscheidungen zu gewährleisten, dadurch auch das Diskriminierungsvermögen gegenüber diskreten Zustandänderungen zu erhöhen, um dann auch Quantität von Qualität zeitnah im Hier und Jetzt verdichtet unterscheiden zu können.

    Auf Rückkopplungs-, Kontroll- und Regulierungsfunktion des Gedächtnisses bezieht sich Luhmann – mit Verweis auf George Spencer-Brown – in Zusammenhang des Re-Entry mit der Zeitdimension. Er bezeichnet das Phänomen zwar nicht explizit als nichtlinearen, selbstbeschleunigenden Exponentialverlauf, jedoch lässt sich analog die Bedeutung auch aus der Beschreibung erschließen.

    „Wenn dann die Komplexität des Gesellschaftssystems es erlaubt, dass die Unterscheidungen, die das System benutzt, in das durch sich Unterschiedene wiedereintreten, wird das System für sich selbst intransparent. Es kann sich selbst mit Operationen, die seinen eigenen Zustand erzeugen und verändern, nicht mehr angemessen beobachten. Das gilt besonders dramatisch in der ZEITDIMENSION, und zwar gerade deshalb, weil Komplexität nun zunehmend „temporalisiert“, das heißt: sukzessiv aufgebaut und reduziert werden muss. Das ist nur eine andere Formulierung, dass kein System seine eigene Evolution kontrollieren kann. Statt dessen benutzt das System in seinen jeweils aktuellen (jeweils gegenwärtigen) Operationen.
    Eine Zusatzeinrichtung, die wir (im Anschluß an Spencer Brown) GEDÄCHTNIS nennen können. In jedem Fall benötig ein System, das historische Ursachen für seinen gegenwärtigen Zustand feststellen oder sich im Unterschied zu früheren Zuständen als verschieden, zum Beispiel als „modern“ charakterisieren will, ein Gedächtnis, um die Unterscheidungen prozessieren zu können. Aber: was ist ein Gedächtnis?“

    Zur Erklärung des begrifflichen Dilemmas mit dem Gedächtnis, dessen unverzichtbare Leistungen offenbar darin bestehen, einerseits Komplexität zu reduzieren, um im Hier und Jetzt gleichermaßen durch Vergleich zur Komplexitätssteigerung beizutragen und Variationen zu ermöglichen und den in diesem Zusammenhang von Luhmann noch nicht näher entfalteten Bezügen in der Zeitdimension erscheint es mir wesentlich, an dieser Stelle auch nochmals auf Luhmann’s Antwort auf den Vortrag von Heinz von Foerster zurück zu verweisen.

    Luhmann versucht einerseits im Anschluss an Heinz von Foerster Rekursionen im Hinblick auf die Zeitdimension besser einzubeziehen und zwar Zusammenhang mit “Relativierung der Kognition”. Und sucht offenbar: “Andererseits eine Einführung von Zeit als einer Beobachteroperation, die als Beobachtung immer gegenwärtig ist”. Und zwar dahingehend, dass man “Rekursivität umdenkt von einem operativen Niveau auf ein Beobachterniveau, und einen Beobachter denkt, der temporal unterscheiden kann zwischen dem was für ihn in Zukunft wünschenswert ist und was für ihn gedächtnismäßig als Vergangenheit abrufbar ist”. (vgl. Ofak, Hilgers „Rekursionen“ )

    Speziell im Hinblick auf die Zeitdimension scheint der Wechsel zu einer anderen Semantik für die Soziologie extrem schwierig zu werden, wenn Luhmann zum einen feststellt, dass es in unserer Kultur keine verbindliche „primary dinstinction“ mehr zu geben scheint, „weder die von Sein und Nichtsein, noch die der logischen Wahrheitswerte, weder die der Wissenschaft, noch die der Moral.“ (GdG, S. 593)
    Eine Zustandsbeschreibung für die Soziologie, die im Grunde – ohne verbindliche Referenzen, eingebunden in eine restabilisierende Matrix – einer Orientierungslosigkeit im Chaos mit freiem Flottieren und bindungslosen Hin- und Herspringen zwischen Attraktoren gleichkäme. Dies auch noch gepaart mit Luhmann’s fatalistisch anmutendemVerweis:

    „Evolution ist und bleibt unvorhersehbar. Daran kann das Gedächtnis nichts ändern. Es kann sich nur darauf einstellen, und zwar je nach den Irritations- und Beschleunigungs-koeffizienten, die sich aus der Evolution ergeben, mit verschiedenen Formen“ (GdG, S. 594)

    Andererseits betont Luhmann, dass „ohne Unterscheidungen nicht ginge. Die Konsequenz ist nur: dass man genötigt ist, zu beobachten, wer welchen Unterscheidungen verwendet, um seine Vergangenheit seiner Zukunft vorzugeben.“

    Dieser Zustand klingt allerdings eher – nach Auflösung von hierarchischen Strukturen mit Verlust von Referenzgrößen, lokalisiert in einem Supersystem – in letzter Konsequenz höchst verdächtig nach Anarchie und wechselseitiger Bespitzelung in allen sozialen Systemen. So ganz unbekannt, scheint jedoch dieser Zustand – wenn man sich umschaut in der „Metaphorik der Krise“- jedoch nicht zu sein.

    Luhmann verweist allerdings auch darauf, dass die Evolution „die Kopplung von Vergangenheit und Zukunft in den Formen Variation/Selektion/Restabilisierung dem Zufall überlässt [während] das operative Gedächtnis des Systems gerade mit der Kopplung von Vergangenheit und Zukunft beschäftigt [ist]; aber dies so, dass es diese Zeithorizonte zunächst einmal unterscheiden muss, um sie koppeln zu können.“ (GdG, S. 593)

    Genau an dieser Stelle, mag sich nun der Vergleich mit dem Organismus in besonderem
    Maße lohnen. Während das Systemgedächtnis für die Soziologie (et al. überwiegend theoriebasierte Disziplinen) kaum unüberschaubare Zeitspannen überbrücken müsste, um die Transformation in die nächste Gesellschaft adäquat zu beobachten und begleiten, handelt es sich bei vergleichbaren Musterbildungen im Organismus, im Wechsel zum „strange attractor“ um auch wieder „order from noise“ zu erzeugen, um Zeithorizonte von Mikro- bis Millisekunden. Man könnte hierzu auch die „Quantenmechanik des Gedächtnisses“ von
    Heinz von Foerster zugrunde legen.

    Und daran anschließend die Frage stellen:
    Wenn sich schon sämtliche bisher wirksamen, restabilisierende Referenzgrößen eines –wie auch immer gearteten – Supersystems als Matrix aufzulösen scheinen, andererseits Rekombination und Strukturentwicklung die autopoeitische Reproduktion in der Evolution vorantreibt, welche Unterschiede als neue bzw. altbekannte Bezugsgrößen zu setzen wären, um bei aller Unschärfe der Gegenwart detaillierter zwischen Dekonstruktion und Rekonstruktion unterscheiden zu können.

    Legt man Erfahrungswerte und Differenzierungskompetenzen der Medizin zu Grunde, um
    bei Langzeitverläufen zwischen Physiologie und Pathophysiologie unterscheiden zu können, so ließen sich daraus durchaus Qualitätskriterien entwickeln, womit sich auch Kohärenz und Resilienz der Salutogenese im Dienst der Autopoiesis während des evolutionärer Prozesses detaillierter erschließen lassen. Die „Verborgenheit der Gesundheit“ (vgl.Gadamer) erschließt sich für die Medizin traditionell durch die Empirie vorrangig indirekt über die Identifzierung pathologischer Störmuster. Dieses Vorgehen folgt daher immer schon dem Prinzip „order from noise“.

    Es mag sinnvoll sein, an dieser Stelle eine weitere Unterscheidung zum Gedächtnis einzuführen, die sich in George Spencer-Brown’s ”Autobiography” findet.
    Er unterscheidet nochmals zwischen “brain memory” and “blood memory”.
    “A brain memory contains little information. It is a sort of verbal docket for the blood memory, and you cannot reexamine it to find more information, because it contains only the information you put there for labelling. With time in becomes corrupted and breaks up, which is why ordinary people think that memory fades and becomes unreliable. The brain is not constructed to hold permanent memories: it merely stores the information during the hour or so it takes for the permanent memory form.
    A permanent blood memory contains ALL the information of the original experience, and never goes wrong or fades. When you “remember” what somebody said with brain memory, you recall only the gist of it, and reconstruct what he might have said with roughly meaning. A blood memory is better than a tape recording. Not only do you get the exact words, you get the exact nuances and tones of voice, without any of the distortions you get on tape. All the conversations I reproduce here are blood memories, and so are the exact words that were spoken at the time. When I recall what the maid said, I recall with the precise tones in which the words were spoken, though of course I cannot reproduce this in literature….
    When you think of the millions of separate scenes in your life, each recorded in perfect and if necessary enlargeable detail, it is obvious that the only apparatus that can manufacture hard information on such scale in the IMMUNE SYSTEM. The brain, which merely acts as a clearing house for this plethora of information, has in itself no mechanism that could possibly manufacture new information in this detail and on this scale, and to this degree of indestructibility. Especially as the brain does not remain constant but is losing millions of nerve- cells every day, and many times this number when you get drunk or suffer a general anaesthetic.”
    Ergänzend dazu:
    In der Evolutionstheorie ist das Immunsystem als erste angeborene Verteidigungslinie bereits ab den ersten komplexen Vielzellern ab dem Präkambrium nachweisbar, vor ca. 600 Mio. Jahren. Und das adaptive Immunsystem mit Gedächtnisfunktion ab den ersten kiefertragenden Fischen ab dem Devon vor ca. 400 Mio. Jahren.

    Im Dienst der Autopoiese macht die Unterscheidung zwischen „brain memory“ und „blood memory“ von George Spencer-Brown -auch im Zusammenhang mit medizinischen Grundlagen zum Immunsystem – Sinn.

    Auch die semantischen Bezüge zum „Immunsystem der Gesellschaft“, die Luhmann definiert, erscheinen erstaunlich (vgl. Soziale Systeme, Kap. 9 „Widerstand und Konflikt“ S. 549 f):

    „Das Immunsystem disponiert über die Verwendung von ‚Neins’ von kommunikativen Ablehnungen“
    „Dies geschieht normalerweise nach Rezept, das heißt auf Grund von Erwartungsstrukturen.“
    „Das Immunsystem sichert die Autopoiesis auch dann, wenn dieser Normalweg blockiert ist“

    „Theoretisch ergiebiger wäre es, Erwartungsstruktur und Immunsystem zu unterscheiden. Denn dann kann man jedenfalls sehen, dass die moderne Gesellschaft, verglichen mit allen Vorgängern, Strukturen destabilisiert und die Neinsagepotenz beträchtlich erhöht hat. Es mag dann weniger wesentlich sein, ob das Nein mehr aus Positionen der Rechtsstärke oder im Kontext sozialer Bewegungen artikuliert wird. Gegenwärtig versucht man, beides in der Figur des „zivilen Ungehorsams“ zu versöhnen. In jedem Fall wird man sich fragen müssen, wie von da her das doch nötige JA zur Gesellschaft wiedergewonnen werden kann.“

    Wäre es nicht interessant, auch im Hinblick auf „Würdigung präziser Systemreferenzen“ für eine „vernünftige Kognitionswissenschaft“ die Zusammenhänge – den Empfehlungen Heinz von Foerster’s folgend – in einen etwas erweiterten Rahmen zu
    zu stellen?

    Der Geist, der Körper, die Welt. Man muss nur lernen, damit umzugehen. Dann hat man auch weniger Probleme mit Komplexität. Wir können nur jene Fragen entscheiden, die prinzipiell unentscheidbar sind. ”

    Zeichnen sich angesichts der allgemeinen Großwetterlage nicht bereits Tendenzen ab, die den Verdacht nahe legen könnten, dass es sich durchaus lohnen könnte, den Aufmerksamkeitsfokus bei Beobachtungen reflexiv auf Unterschiede zwischen „Erwartungsstrukturen und Immunsystem“ zu richten?
    Anders gesagt, auf Unterschiede zwischen Bekanntem und Erkanntem, zwischen Moden des Zeitgeistes und Wiederaufnahme zwischenzeitlich vergessener soziokultureller Überlieferungen mit Mythen und Ritualen aus unterschiedlichsten Epochen, zwischen Vorstellungen als Wirklichkeitskonstruktionen und sich überall gleichzeitig nach ähnlichen Mustern ereignender Realität, die längst innerhalb von sozialen Systemen auf einen strukturellen Umbaus von innen verweisen?

    Da sich erfahrungsgemäß die größten Widerstände in Betriebsblindheiten und
    messerscharfen Schlussfolgerungen finden lassen, möchte ich – dies auch im Anschluß an
    an den von Luhmann mit Erschrecken eruierten Supercode “Inklusive/Exklusion”
    zum Abschluss ein paar Fragen zu beobachtbaren Zustandsbildern mit Betriebsblindheiten, die sich in allen drei Systemtypen finden lassen

    Die zentrale Frage scheint doch zu sein:
    „Was darf denn nicht sein, was durchaus sein kann?“
    Handelt es sich hierbei vielleicht um eines der größten Tabus der Moderne?
    Sodass die Auseinandersetzung mit Endlichkeit, Grenzen und Selbstbeschränkung nicht mehr gewährleistet und vorgehalten werden kann?
    Führen diese Fragen nicht auch zu den Kernbotschaften der „Laws of Form“?

    Auf dieser Basis stelle ich zum Abschluss die These auf, die Ereignisdichte mit Effektkumulationen in der „Metaphorik der Krise“ ist mittlerweile so hoch, dass sich diese auch als Chance zur Einführung einer etwas anderen Semantik zur Begleitung der Transformation auch durch einfache Textanalysen kommunikationstheoretisch anhand von Einzelkasuistiken rekursiv nutzen lassen.
    Qualitätskontrollen – gemäß den Laws of Form – mit Zentral-Fokus auf die Compliance versus Non-Compliance gerichtet, daran werden sich höchstwahrscheinlich die präzisen Systemreferenzen der nächsten Gesellschaft ausrichten.

    Was ist das Allgemeine?
    Der einzelne Fall.
    Was ist das Besondere?
    Millionen Fälle..(Goethe)

    • Besten Dank. Wenn nur die Empirie der Gesellschaft hinreichend ausgearbeitet bzw. ausarbeitbar wäre, um die heuristische Leistung von medizinischen Begriffen überprüfen zu können. Hatte nicht bereits Norbert Wiener mit einem ähnlichen Einwand auf Margaret Meads und Gregory Batesons Drängen reagiert, nun die Kybernetik zur Heilung der Gesellschaft einzusetzen? We lack the necessary long runs in statistics, wandte er ein, um irgendeine sichere Aussage über Normalität und Pathologie von Kultur und Gesellschaft sagen zu können, und ob die Abermillionen clickstreams, die wir heute auswerten können (aber nicht dürfen), etwas an dieser Situation ändern, müsste man auch erst noch überprüfen.

  17. deaXmac permalink

    Wieso muss man ” irgendeine sichere Aussage über Normalität und Pathologie von Kultur und Gesellschaft” zugrunde legen? Die Praxis der Medizin hat und hatte als empirische Wissenschaft ständig mit ganz individuellen Ausprägungen von Pathologien zu tun, die in keinen Lehrbüchern stehen und deren Bedeutung sich erst via Beschreibung von Symptomen in Kasuistiken nach und nach erschließen. Dies bedeutet immer auch Rekombination im Vergleich mit bereits beobachteten ähnlichen Phänomenen. Auch die scheinbar sicheren Referenzgrößen in der Medizin, wie Laborwerte -man denke nur an den Cholesterinhype- unterliegen kontinuierlich der Anpassung.
    Genauso wie Parameter, die in der Gesundheitsreligion zur Leistungsoptimierung als gesund gelten, ob Diäten, Fitnesskult, Vitamine, Hormonsubstitution, Pharmakotherapie, neuerdings auch als Neuroenhancement etc. unterliegen Moden und scheitern an Risiken und Nebenwirkungen.
    Was letztlich gesund und normal IST, kann selbst in der Organmedizin niemand so genau sagen.
    Geschweige denn, dass es Referenzen für psychische Gesundheit gäbe. (vgl. Watzlawick bzm auch Ruesch/Bateson “Kommunikation”)

    Gerade bei “Überforderung durch Kommunikation” stellt sich doch die Frage, wie lassen sich die allseits zu beobachtenden Streßphänomene, die in einen exponentiellen Anstieg von psychischen/psychosomatischen Erkrankungen münden, mit einem möglicherweise falsch verstandenen Begriff von Zeit – der via Arbeitsverdichtung, Zeitdruck, Automatisierung, rasante Beschleunigung- durch Standardvorgaben zur Qualitätskontrolle durch die Programmierung in Gleichschaltung letzlich zur Qualitätsvernichtung hochdifferenzierter Kernarbeit führt – in Zusammenhang bringen mit einer anderen Semantik der drei Sinndimensionen.

    Eine konditionierte Struktur ist doch gerade auch bei Verträgen mit Versprechen auf die Zukunft zu erkennen. Gleichgültig ob es sich um Börsenspekulationen, Versicherungsverträge und/oder Wahlversprechen in der Politik handelt. Was erkennbar scheint, im Vergleich von Soll/Ist-Vorgaben wird retrograd Verantwortung, sofern es sich um Haftung für Entscheidungen dreht, gerade von Organisationen delegiert. Und die von Entscheidungen Betroffenen erscheinen am Ende im Profi-Laien-Gefälle doppelt gestraft, obgleich Risikokalkül mit langfristiger Auswirkungen auf (unbeteiligte) Dritte im Grunde eine berechtigte Forderung zur Äquivalenz von Qualitätskontrolle in allen ausdifferenzierten Funktionssystemen wäre.
    Der einzige Bereich, wo die Rechtssprechung mittlerweile Kunstfehler in praxi auf Beweislastumkehr verständigt hat, um das Profi-Laie-Gefälle zu überbrücken, ist die Medizin.
    Und das ist auch gut so. Kontiuierliche interne hochspezialisierte Qualitätskontrollen müssen conditio sine qua non gerade in der Medizin bleiben. Delegation von Verantwortung -obgleich mittlerweile vielfältig zu beobachten- darf in der Medizin keinen Platz finden.
    Auch das kann im Begriff der Compliance bei aller Unschärfe längst als verankert gelten.

    Die Compliance ist im übrigen auch für die BWL definiert. Jedoch was nutzt es, wenn Vorgaben zu Qualitätskontrollen nur auf dem Papier stehen, jedoch intern nicht bzw. nur durch interne Revision praktiziert werden. Insofern gilt auch: Wer überprüft, die Wissenschaft, die Wirtschaft, die Politik, das Justiz im Hinblick auf Qualität, Äquivalenz und Gleichbehandlung? Bei einem bürokratischen Staatsapparat mit Gewaltmonopol, der sich selbst legitimiert, wie anhand der Tagespolitik azentral zu verfolgen ist stellt sich doch die Frage, wie vergleichsweise ideologiefrei unverzichtbare Werte bzw. Referenzgrößen vermittelt werden könnten, die der Reproduktion von Kommunikation zur funktionalen Ausdifferenzierung und der Autopoiese der Gesellschaft nützlich sein könnten.

    Eigenverantwortung, Selbstkontrolle und mehr demokratische Mitbestimmung bei Entscheidungsprozessen von Organisationen scheint sich doch in atmosphärischen Stimmungsumschwüngen aktuell zu entladen. Ohne zu en detail zu bewerten, was im Einzelnen geschieht, scheint es doch irgendein gemeinsames Empfinden für Qualität und unverzichtbare Werte in den Sinndimensionen im Immunsystem der Gesellschaft zu geben, sonst würden sich die Ereignisse nicht so verdichten:

    http://www.zeit.de/2013/26/proteste-globales-erwachen

    Insofern kann ich nicht so ganz erkennen, weshalb es strikter Kopplungen an Referenzgrößen bedarf, wenn Kommunikation in den Sinndimensionen verankert genügend Flexibiltät und Freiräume ermöglicht, die über Infrastrukturen abgesichert wären und sich gleichzeitig auch
    bedarfsorientiert, die praxisbegleitend anhand von Kasuistiken fortentwickeln und erweitern lassen.
    Und dieser Forderung
    “We lack the necessary long runs in statistics”
    könnte vergleichbar epidemologischen Langzeitstudien, parallel dazu, ebenfalls begegnet werden. Hier wäre z.B. an die Framingham Studie zu erinnern.
    http://de.wikipedia.org/wiki/Framingham-Herz-Studie

    Wo und wann beginnen, bleibt ohnehin der Entscheidung der einzelnen Operateure innerhalb der einzelnen Funktionssysteme überlassen. Es gibt keine externen Sicherheiten und die Zukunft bleibt offen. Nur unentscheidbare Fragen können entschieden werden. “to navigate is to construct”.

  18. deaXmac permalink

    Lieber Herr Professor Baecker,

    bitte nichts für ungut, dass ich nochmals ein paar Störmuster einbringe.
    Als professioneller Quälgeist aus Beobachterebene zweiter Ordnung – in der Arbeitsmedizin seit langem schon beauftragt zur Qualitätssicherung anderen Profis in unterschiedlichsten Professionen zur Überwindung ihrer Betriebsblindheiten auf die Sprünge zu helfen – hat mir Ihre letzte Aussage doch keine Ruhe gelassen:

    “Hatte nicht bereits Norbert Wiener mit einem ähnlichen Einwand auf Margaret Meads und Gregory Batesons Drängen reagiert, nun die Kybernetik zur Heilung der Gesellschaft einzusetzen? We lack the necessary long runs in statistics, wandte er ein, um irgendeine sichere Aussage über Normalität und Pathologie von Kultur und Gesellschaft sagen zu können”

    Da alleine Vergleiche dazu führen können, einigermaßen sichere Aussagen über „Normalität und Pathologie“ zu treffen, möchte ich die Methodologie zum weiteren Erkenntnisgewinn auf dem Weg zu einer „vernünftigen Kognitionswissenschaft“ – auf Basis der Differenzlogik bzw. Syllogistik der ‘Laws of Form’ – doch noch etwas weiter entfalten. Und zwar anhand dieses Kernsatzes:
    „Eine Aussage kann nicht nur wahr, falsch oder sinnlos sein, sondern auch imaginär.“

    Mittlerweile habe ich nämlich den gelinden Verdacht, dass das Projekt der “Autobahnuniversität” – vorrangig durch Falschanwendung statistischer Methoden in den Geisteswissenschaften –etwas im allgemeinen (statistischen Daten) –Stau stecken könnte, vielleicht befallen von multimedial induzierter „statistischer Normaldepression“ (vgl. GdG, S. 1099)

    Bevor es nun allenthalben zu weiteren Massenkarambolagen mit größeren und kleineren statistischen Katastrophen kommt, wäre es vielleicht doch angebracht ein paar Schleichwege zum Untertunneln und Überbrücken des gesamten Begriffs-Desasters durch Anreicherung imaginärer bzw. hermeneutischer Rekursions -Abkürzungen unter Erweiterung der Methodik, – angeregt durch die Medizin- vorzuschlagen.

    Um die babylonische Sprachverwirrung – verheddert in Statistik – durch Umdeutung der Semantik etwas aufzuklären, hierzu zunächst Luhmann
    (Zitate aus GdG, 1997, “Schöpfung, Planung, Evolution” S. 413 ff)

    “Gesellschaft ist das Resultat von Evolution. Man spricht auch von ‘Emergenz’. Das ist aber auch nur eine Metapher, die nichts erklärt, sondern logisch auf eine Paradoxie zurückführt. Wenn das akzeptiert ist, kann man Evolutionstheorien beschreiben als TRANSFORMATION eines LOGISCH UNLÖSBAREN Problems in ein GENETISCHES Problem. Wie immer unbefriedigend evolutionstheoretische Erklärungen ausfallen mögen: es gibt heute keine andere Theorie, die den Aufbau und die RE-PRODUKTION der Strukturen des Sozialsystems Gesellschaft erklären könnte.”…..
    “Als Leitfaden für die weitere Analyse wird uns die ‘PARADOXIE DER WAHRSCHEINLICHKEIT DES UNWAHRWSCHEINLICHEN dienen. Für STATISTIKER ist das eine TRIVIALITÄT (oder auch: eine falsche Anwendung statistischer Begriffe). Denn schließlich ist jede Merkmalsgesamtheit, etwa die Eigenart eines bestimmten Menschen, wenn man nach den Bedingungen des Zusammenkommens eben dieser Merkmale fragt, extrem unwahrscheinlich, nämlich das Resultat eines zufälligen Zusammentreffens; aber zugleich ist diese Unwahrscheinlichkeit in jedem Fall gegeben, also ganz normal.”
    “Die Unwahrscheinlichkeit des Überlebens isolierter Individuen oder auch isolierter Familien wird transformiert in die (geringere) Unwahrscheinlichkeit ihrer strukturellen Koordination, UND DAMIT BEGINNT DIE SOZIOKULTURELLE EVOLUTION. Die Evolutionstheorie VERLAGERT DAS PROBLEM IN DIE ZEIT und versucht zu klären, wie es möglich ist, dass voraussetzungsreichere, immer unwahrscheinlichere Strukturen entstehen und als normal funktionieren. Ihre Grundaussage ist: dass EVOLUTION GERINGE ENTSTEHUNGSWAHRSCHEINLICHKEITEN in HOHE ERHALTUNGSWAHRSCHEINLICHKEITEN TRANSFORMIERT:”

    “Die Beschreibung der entstandenen Differenzen ist selbst noch keine Evolutionstheorie, und dies auch dann nicht, wenn das Material in ein historisches Nacheinander eingeordnet, also als Sukzession dargestellt wird. Deshalb sehen wir das Problem in der MORPHOGENESE von Komplexität.”
    “… Vielmehr nimmt man an, dass die Evolution sich REKURSIV verhält, das heißt dasselbe Verfahren iterativ auf die eigenen Resultate anwendet” ( zu Rekursionen vgl. weiter oben .: Heinz von Foerster)

    Legt man nun – wie von Luhmann empfohlen – den” Leitfaden für die weitere Analyse [] als die ‘PARADOXIE DER WAHRSCHEINLICHKEIT DES UNWAHRWSCHEINLICHEN” zu Grunde, dann ergeben sich bei falscher Anwendung statistischer Begriffe in Analysen folgende ganz triviale Fehlerquellen, die George Spencer-Brown – bereits 1956, lange vor den “Laws of Form“ in “Wahrscheinlichkeit und Wissenschaft” – in seinem bissig englischen Humor, eingehender beschrieben hat.

    Im Kern dreht es sich dabei, die Paradoxie von “Emergenzen” aufzulösen, die George Spencer-Brown in unglaublicher Komik als Denkfehler und Trugschlüsse entlarvt.
    Er hat dabei vorrangig die “Experimentalpsychologen” im Fokus, die mit “Zufallsgeneratoren” experimentieren.
    Mit Verweisen auf Phänomene, wie “Verzerrung und Streckung”, sowie auf “das schrumpfende Feld” wischt er damit auch sämtliche gängigen Ansätze in der Wissenschaft vom Tisch, die sich alleine schon durch Auswahl der falschen Methode identifizieren lassen.

    Rein empirisch beobachtbare Qualitätsmerkmale nicht detailliert differenzierend zu beschreiben, sondern stattdessen mit statistischen Quantifizierungen zu arbeiten, um Signifikanzen zu herauszufinden, disqualifiziert (Experimental) – Studien meist schon von vornherein als wissenschaftlich völlig belanglos. Ein Phänomen, das George Spencer-Brown zur Recht auch als “endgültiges Abgleiten” in eine Ansammlung von “Anekdoten” über “Wunder bzw. Mysterien” beschreibt.

    Diese Erkenntnisse bergen bereits – wie später auch die Widerlegung/Beinhaltung der Russell’schen Antinomie durch die „Laws of Form“- einen immensen Sprengstoff und eine evolutionäre Kraft, sodass man in konsequenter Anwendung der Kriterien einen Großteil an wissenschaftlichen Studien der Moderne unmittelbar auf dem Datenfriedhof beerdigen könnte. “Descartes Irrtum” scheint sich – vor allem auch in den Kognitions- und geisteswissenschaftlichen Disziplinen – infolge sozial erwünschter Biases bzw. Nicht-Berücksichtigung von Confoundern als Störgrößen – speziell in epidemiologischen und experimentellen Studien – mit unglaublicher Hartnäckigkeit zu halten. Um Heinz von Foerster
    zu zitieren: „Tests test Tests“

    Da es sich –trotz ausgefeilter statistischer Methodik – im Kern um „Paradoxa der Wahrscheinlichkeit“ und deren Anspruch an Beweisbarkeit eines objektivierbaren Wahrheitsgehalt dreht – um prinzipielle Fragestellungen in Anwendung von Statistik –
    im Folgenden nun ein paar prägnante Zitate aus George Spencer-Brown’s “Wahrscheinlichkeit und Wissenschaft”: (1956, zweite Neuauflage CA-Verlag 2008)

    Diese betreffen:

    1. Biases und Confounder:

    „Das Konzept der Wahrscheinlichkeit erinnert stark an Professor Oberschlaus Kuh, deren
    ‚Kuhheit’ nicht beeinträchtigt wird, gleichgültig welches Abgrenzungskriterium ihr fehlt. Nehmen wir analog eine Folge von hundert Einsen und Nullen und schätzen die Wahrscheinlichkeit einer Null auf ½ , dann können wir JEDE der Nullen in eine Eins verwandeln, ohne etwas an der Wahrscheinlichkeitsschätzung ändern zu müssen. Verwandeln wir jedoch ALLE Nullen in Einsen, dann beträgt die Wahrscheinlichkeit einer Null nicht mehr ½. Ebenso verliert die Kuh Professor Oberschlaus, aller Unterscheidungsmerkmale beraubt, ihre „Kuhheit“ absolut vollständig.
    Nun besagt die klassische Theorie, dass die Wahrscheinlichkeit der Null auch dann ½ bleiben könne, wenn in unserer ganzen Hunderterseite keine einzige Null vorkäme. Das ist, als behaupte jemand, sogar ein Geschöpf ohne Hörner, Hufe, Euter Schwanz sowie entsprechende Innereien könne immer noch eine Kuh sein, obwohl wir das faktisch bestreiten. Ebenso besitzt eine Folge von hundert Einsen keine fünfzigprozentige Chance, eine Null darzubieten.
    Damit können wir zwischen Verzerrung und Streckung unterscheiden. Eine Folge ist VERZERRT, falls wir annehmen, dass alle weiteren aus ihrer Quelle im gleichen Sinne um etwa denselben Betrag verzerrt wären. Ansonsten ist sie GESTRECKT.

    „STRECKUNG“ bedeutet Abweichen von einer NORM, „VERZERRUNG“ hingegen Abweichen von einer ERWARTUNG.“ (GSB ,W+W, S. 84)

    2. Falsche Anwendung statistischer Begriffe bzw. falsche Methodik

    „ Geringe Wahrscheinlichkeiten, die als Signifikanzkriterien benutzt werden, sollen auf beweisbare Wiederholbarkeit hindeuten. Aber das Schlimme an den experimentalpsychologischen Befunden ist, dass ihre Wiederholbarkeit niemals von Signifikanz zeugt. Vielmehr geben sie uns gute empirische Gründe, die allgemeine Geltung der der klassischen Häufigkeitswahrscheinlichkeit zu bezweifeln.“

    „Viel kurioser erscheint jedoch jene Signifikanz, die sich im Lauf der Zeit ausbildet, plötzlich vom Experimentator bemerkt wird und dann restlos verschwindet….
    „Man bemüht sich nach Kräften, die Rückkopplungsmechanismen auszuschalten, an der die Besonderheit faktisch scheitern würde.
    Hier bestätigt sich Aristoteles Aperçu, dass wir den Zufall nicht beweisen. Können. Wenn nämlich meine These zutrifft, dann läuft die ganze Organisation der Experimentalpsychologen darauf hinaus, das Nichtbeweisbare beweisen zu wollen.“

    „Obwohl sich die meisten Experimentalpsychologen für das Mysteriöse interessieren, nehmen sie höchst ungern zur Kenntnis, dass erklärte Mysterien nicht mehr mysteriös sein können. Wen das Mysteriöse als solches reizt sollte besser nicht an einer wissenschaftlichen Einstellung arbeiten. Mysterien sind BEOBACHTUNGEN, die WIR NICHT EINZUORDNEN WISSEN – und allein in diesem Sinne sind Zufallsserien mysteriös. Der Grundirrtum einiger Psychologen besteht darin, sich als Wissenschaftler zu gerieren, die Mysterien als solche zu reizen, doch das brandmarkt sie nur als Schafe in Wolfspelzen“
    (W+W, S. 105 ff)

    Das Phänomen der Verwechselung und Falschanwendung von Begriffen spricht George Spencer – Brown auch in den „Laws of Form“ in verschiedenen Zusammenhängen immer wieder an, z.B.:
    „Die Tatsache, dass ein Kalkül und eine Interpretation des selben unterschiedliche Einheiten sind, ist von entscheidender Bedeutung“ („Gesetze der Form“ Appendix 2, S.98):
    „Folgen und Verstehen, so wie Demonstrieren und Beweisen, werden manchmal fälschlicherweise als Synonyme verwendet.“ „Gesetze der Form“ (Anmerkungen, Kapitel 8,9, S. 83)

    3. Im Fokus steht die Beobachtung in sinnlicher Wahrnehmung, noch ohne klare Methodik:

    “Da sich Sinnesdaten schlecht als Grundlage der wissenschaftlichen Verständigung eignen, müssen wir nach etwas Besserem suchen. Eine geeignetere, historisch interessantere Hypothese setzt materielle Objekte voraus.”

    ” Das Verb ‚beachten’ umfaßt ein weites Feld und kann sich auf Eindrücke, Reaktionen und Bermerkungen genauso beziehen wie auf materielle Objekt selbst. Beachten im Sinne von BEOBACHTEN dürfte das Grundelement der Wissenschaft sein. Beobachtungen bilden zwar eine größere Menge als materielle Objekte, sind aber nicht weniger objektiv. Ich kann direkt über meine Sinne beobachten, sie mittels Instrumenten (etwa Punktlesegeräte) erweitern oder sogar Berichte anderer Menschen über Sinneseindrücke einbeziehen. Gewiss kann man einwenden, der Begriff „Beobachtung“ sei doppeldeutig, weil er entweder das Erlebnis oder die Schilderung bezeichnet; aber gerade das wünscht ja der Wissenschaftler:
    Mit verschwiegenen Erlebnissen kann er nichts anfangen, denn sie sind unwissenschaftlich.“

    Die Doppeldeutigkeit, die im methodischen Vorgehen begründet ist, lässt sich wiederum nur durch Einführen eines Beobachters zweiter Ordnung auflösen. Was bedeutet, es dürfen nicht immer nur gleichgeschaltet Ergebnisse von Studien systemimmanent und betriebsblind –z.B. durch Wiederholung einer Versuchsanordnung in statistisch angelegten Studien überprüft werden. Um diese Dilemmata zu vermeiden, sind –in Ergänzung des üblichen peer group review – auch immer wieder unbefangene Beobachter von außen zur Kurskorrektur erforderlich.

    Es bedarf folglich zur Qualitätssicherung des operativen Kalküls in der Wissenschaft im Sinne von Autopoiesis / Reproduktion zur funktionalen Ausdifferenzierung notwendigerweise auch einer kontinuierlich begleitenden Selbstbeschreibung, die immer auch qualitätskontrollierend die rekursive Überprüfung der ersten Unterscheidung beinhaltet.
    Dies bedeutet, dass eine Epistemologie konsequenterweise mit dem methodenkritischem Ansatz – mit Risikokalkül im Hinblick auf Restabilisierung – beginnen und bereits rekursiv vom Ende her, d.h. in worst –case- Szenarien gedacht werden muss.
    Qualitätskriterien, die als Gedächtnis – Faden der Ariadne bzw. als begleitende Beobachtungsfigur als Form zweiter Ordnung als Meta-Theorie zur Referenz parallel mitlaufen.

    Fragen von „Normalität und Pathologie“ können jedenfalls nicht –auch nicht in der Medizin-
    als normierende Ist-Soll-Standardvorgaben von einer – wie auch immer definierten, diffusen sozialen Matrix- von außen zur Regulierung und funktionalen Differenzierung von Systemen herangetragen werden. Das genau entspräche der Trivialisierung mit Wissenvermittlung durch den „Nürnberger Trichter“, den Heinz von Foerster so sehr beklagt hat.

    Es ist davon auszugehen, dass unverzichtbare Werte, die dem Überleben und der Autopoiesis dienen, sich in Co-Evolution über kontinuierliche Sensibilisierung des Immunsystems – als erste Verteidigungslinie, auch in der Gesellschaft – von selbst konstituieren und epigenetisch bzw. durch Interaktionen weitervermittelt werden.

    Es fragt sich nun in diesem Zusammenhang nur, inwieweit die Fragen, die Luhmann aufwarf – dies auch in Zusammenhang mit der „Autobahn-Universität“ – immer noch aktuell sind?
    Falls ja, ob und wie daran angeschlossen werden sollte?

    „Die Gesellschaft kann in sich selbst wissenschaftliche Forschung nur vorsehen, wenn sie es der Forschung erlaubt, möglichst einfache (zum Beispiel mathematische) Erklärungsmodelle auszuprobieren und weitere Forschungen einzustellen, wenn die Erklärung den methodologischen Anforderungen genügt; oder anderenfalls sich an komplexeren Datenvorgaben heranzuwagen. Dagegen ist sicher nichts zu sagen. Nur: wenn es um eine Theorie der Gesellschaft geht, müsste diese Erlaubnis, sich selbst mit Hilfe von Konventionen Erfolge und Misserfolge zu bescheinigen, als EIGENART des GEGENSTANDES der Forschung in die Forschung einbezogen werden. Man brauchte eine Theorie, die den methodologischen Rahmen der Forschung desavouiert. Derrida würde vielleicht sagen: dekonstruiert.“

    Dieser Aussage möchte ich entgegenstellen:
    Zum Umbau und Re-Konstruktion von Theoriegebäuden in der Wissenschaft bedarf es lediglich einer stetigen Kombination im Wechsel zwischen Dekonstruktion und Neu-Konstruktion.
    Um diesen Weg zu beschreiten, braucht man das wissenschaftstheoretische Rad nicht immer wieder neu zu erfinden. Zur Re-Kombination bedarf es lediglich der Akzeptanz, der Einführung und des flexiblen Einsatzes weiterer Beobachter zweiten Ordnung, die aktuell von extern den Horizont erweitern, speziell auch im Hinblick auf einen transdisziplinären Methodenvergleich.
    Qualitätssicherung und Weiterentwicklung gleichzeitig kann nur in Übernahme von Eigenverantwortung, Selbstkorrektur in Überwindung der eigenen Betriebsblindheit funktionieren. Das beinhalten die „Laws of Form“.

    Da nun auch weitere Beschreibungen des Immunsystems auf dem Weg zu einer „vernünftigen Kognitionswissenschaft“ gefragt sind, wird dieser Weg speziell auch die Öffnung gegenüber der Methodologie der Medizin betreffen. Darüber hinaus werden vermutlich auch –neben Reprisen von Klassikern – weitere wissenschaftstheoretische Grundlagen in Ergänzung gebraucht. Z.B. –wie oben bereits erwähnt – Paul Feyerabend, insbesondere „Against method. Anything goes“ bzw. “Wissenschaft als Kunst”

    Wissenschaft darf niemals in bürokratischer Wissensverwaltung erstarren, sondern muss immer eine Forschungs-Werkstatt und eine lebendige Dauerbaustelle bleiben. Was nicht bedeutet, dass es nicht bereits klare, einfache, eindeutige und unverzichtbare Grundlagen und Infrastrukturen gäbe, die auch in den „Laws of Form“ zu verankern sind.
    Man muss sie nur zu nutzen verstehen.

    Soziologie als eine dynamisch funktional sich weiter ausdifferenzierende Wissenschaft,
    die nicht weitestgehend realitätsfern nur passiv beschreibt und lehrt, sondern auch aktiv impulsgebend – und dennoch weitestgehend ideologiefrei – mit gestaltet, so verstehe ich Luhmann’s Intention. Aber ich mag mich auch täuschen.

    Wird/wurde aus dem Trend und Zusammenstellung meiner Kommentare einigermaßen verständlich, was zum eigentlichen Kern des gesamten Dilemmas – mit Voranzeichen eines „rasendem Stillstands“ auf der Datenautobahn geführt haben könnte?

    Und darüber hinaus auch, was für eine Vielfalt an Chancen sich in und durch die Systemtheorie sich wiederum in Hülle und Fülle aus der kritischen Zuspitzung, auch aus der Wissenschaft heraus entwickeln ließen, um dem vergleichsweise indifferenten Schwebezustand allgemeiner Unentschlossenheit neue Impulse zu verleihen ?

    TRUE IS OPEN TO PROOF und „to navigate is to construct“. Das stimmt auf alle Fälle.

    Ich bin gespannt, auf Ihre Rückmeldung.

    • Liebe Frau Menges,

      wir kommen wohl nicht darum herum, auch die statistischen Verfahren, deren Schwächen Sie hier beschreiben, zu jenen imaginären Aussagen zu zählen, mit denen sich eine spezifische Wissenschaft der Gesellschaft ihre Wiklichkeit zurecht legt. Diese imaginären Aussagen sind in Politik, Wirtschaft und Massenmedien anschlussfähig und haben einen erheblichen Anteil an der Konstruktion von Welt. Darin liegt der Beweis ihrer Brauchbarkeit.

      Das ist in der Tat ein interessantes Phänomen. Unterfüttert wird es nicht von Wahrheit oder Falschheit, sondern von imaginären Wahrheiten und Falschheiten. Etwas anderes ist uns in einer komplexen Welt nicht zugänglich. Und etwas anderes betreiben hermeneutische, diskursive, narrative und interventive Methoden auch nicht.

      Mit Gruß

  19. deaXmac permalink

    So scheint es zu sein:
    “Diese imaginären Aussagen sind in Politik, Wirtschaft und Massenmedien anschlussfähig und haben einen erheblichen Anteil an der Konstruktion von Welt.”
    Ich möchte ergänzen. Die durch Statistik gewonnenen Ausagen erscheinen NOCH (!) anschlußfähig. Aber zunehmend nur noch innerhalb der sich im infiniten regress selbst abkoppelnden Organisationen. Die Vertrauensverluste als Unken-Rufe aus dem “unmarked space” nicht hören zu wollen, rächt sich gerade unter der Sysmptomatik der “Dysgnosie”-Epidemie.

    Es ist durchaus zu beobachten, wie sich Statistik durch Statistik zunehmend von innen selbst sprengt, für belanglos und invalide erklärt und so auch in sich kollabiert, sofern sie auf falschen Prämissen beruht.
    Statistik ist zweifelsohne ein wertvolles und brauchbares Instrument zur Beweisführung. Aber als Instrument der Quantifizierung gehört Statistik, wie die zweiwertige Logik bzw. die Grammatik zu den Sekundärtugenden. Insofern ist es immer eine Frage der Priorisierung bei Auswahl der Methodik und reflektiert in Selbstreferenz natürlich auch unmittelbar nicht nur Qualität und Güte des Studien-Designs, sondern auch Können und Sorgfalt des Anwenders.

    In diese Richtung läuft gerade der Prozess.
    Wenn Sie mir Ihre mail – Adresse übersenden, kann ich Ihnen ein ziemlich prägnantes Beispiel über eine Kippfigur via Relationen in der Statistik schicken, woran man auch die Hebelwirkung von “Schmetterlingseffekten” bei konditionierte Strukturen ganz gut erkennen kann.

  20. Steven Meyerson permalink

    Notify me of future posts.

  21. Arnd Kulow permalink

    Vielen Dank für Ihr klares Plädoyer. Zum Thema befinde ich mich noch in einer Art Superpositionszustand. Eine kleine Anmerkung habe ich gleichwohl: Bei der aussagenlogischen Interpretation des Indikationenkalküls von GSB wird das Nebeneinanderschreiben von Variablen als ODER -Verknüpfung und Haken meist als Negation interpretiert. Damit ist der Kalkül in der Lage jede der 16 grundsätzlich möglichen binären aussagenlogischen Verknüpfungen nachzubilden. Dabei bedeutet allerdings das von Ihnen zitierte Beispiel (Haken = Klammer) also ‘ (a)b ‘ nur ‘ nicht-a oder b ‘ und das ist genau ‘ a->b ‘ oder ‘ a impliziert b’ also nicht ‘nicht-a impliziert b’. Dies kann leicht mit einer Wahrheitstabelle gezeigt werden. Ihre aussagenlogische Interpretation kann ich daher so derzeit nicht nachvollziehen.

Trackbacks & Pingbacks

  1. George Spencer-Brown wird heute 90 | Philgrundsyst's Blog
  2. ipony → George Spencer-Brown Turned 90
  3. Happy birthday, George | Markus Heidingsfelder
  4. Working the Form | The Catjects Project

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: