KI, Philosophie, Logik

12/27/2018 ∙ by Karl Schlechta, et al. ∙ 0

This is a short (and personal) introduction in German to the connections between artificial intelligence, philosophy, and logic, and to the author's work. Dies ist eine kurze (und persoenliche) Einfuehrung in die Zusammenhaenge zwischen Kuenstlicher Intelligenz, Philosophie, und Logik, und in die Arbeiten des Autors.

READ FULL TEXT VIEW PDF
POST COMMENT

Comments

There are no comments yet.

Authors

page 1

page 2

page 3

page 4

This week in AI

Get the week's most popular data science and artificial intelligence research sent straight to your inbox every Saturday.

1 KI und Philosophie - Beispiel Normalfall und Deontische Logik

1.1 Ein Beispiel aus der KI (= Künstliche Intelligenz)

Vögel fliegen - gemeint ist: können fliegen.

Nicht alle Vögel können fliegen, Pinguine können nicht fliegen, Brathähnchen auch nicht …. Aber wenn wir an einen Vogel denken, denken wir daran, dass er wohl fliegen kann.

Wir können das so ausdrücken: “Normale” Vögel können fliegen.

Wenn man einen Käfig für Vögel bauen will, wird man an “normale” Vögel denken, und ein Dach planen. Wenn man aber weiss, dass es sich um einen Käfig für Pinguine handelt, wird man auf das Dach verzichten.

Da es oft sehr viele Ausnahmen gibt, an die man nicht unbedingt alle denkt (und die man nicht alle programmieren will), fasst man die üblichen Fälle eben mit dem Wort “normal” zusammen, und die Ausnahmen sind dann “nicht normal”. Erst wenn man Gründe hat, anzunehmen, dass ein Vogel kein “normaler” Vogel ist, wird man an die Ausnahmen denken. Das muss aber explizit angegeben sein.

Es ist einfacher, Regeln für die “normalen” Fälle zu programmieren, und Ausnahmen explizit anzugeben, als von vornherein an alle Ausnahmen zu denken, und sie zu programmieren.

Daher kommt das Interesse der KI für die Beschreibung der “normalen” Fälle, die in Regeln mit Ausnahmen resultiert.

Man kann die Fälle jetzt nach ihrer “Normalität” oder aus historischen Gründen umgekehrt “Abnormalität” ordnen, drückt aus, dass weniger abnormal ist, als oder, dass normaler ist als

Ein Fall minimaler Abnormalität oder maximaler Normalität ist also minimal bezüglich das heisst, es gibt keinen Fall, der bezüglich kleiner ist.

Man interessiert sich für diese minimalen Punkte - genauer: Modelle, siehe Section 2.3 (page 2.3)

1.2 Philosophische Logiken

Philosophische Logiken beschäftigen sich z. B. mit Begriffen wie “möglich”, (moralisch) “geboten”, etc., und versuchen, diese Begriffe zu analysieren, darum nennt man diesen (und ähnliche) Bereich der Philosophie auch “analytische Philosphie”.

Die Logik, die sich mit dem beschäftigt, was (moralisch) geboten ist, nennt man “deontische Logik” (das Wort kommt aus dem Griechischen).

Die moralisch besten Situationen sind dann die, in denen alle Gebote befolgt sind, also zB niemand ermordet wird, keine Sachen gestohlen werden, etc.

Man kann wieder die Situationen ordnen, zB bedeutet dass in weniger Gebote verletzt werden als in und eine perfekte Situation ist dann minimal bezüglich

Hier ist dann eine Parallele zwischen KI und Philosophie: man interessiert sich für die Fälle, die bezüglich einer gewissen, abstrakten, Ordnung minimal sind - die “Fälle” sind dann wieder Modelle, die in der Philosophie oft “mögliche Welten” genannt werden.

(Der grosse amerikanische Philosoph David Lewis hat geglaubt, dass alle möglichen Welten wirklich existieren - was ich für Unsinn halte ….)

2 Logik - Grundbegriffe

2.1 Herleitung und Axiome

2.1.1 Ziel der Logik

Das ursprüngliche Ziel der Logik ist, absolut gesicherte Erkenntnisse zu erreichen.

Da sich das Ziel als zu ehrgeizig herausgestellt hat, hat man es im Laufe der Jahrtausende relativiert:

  1. Von absolut sicheren Erkenntnissen ist man zu sicheren Erkenntnissen unter genau beschriebenen, expliziten Voraussetzungen (Axiomen) übergegangen.

  2. Während die Axiome ursprünglich als “selbverständlich”, “unmittelbar einsichtig” etc. angenommen wurden, ist man zu irgendwelchen Annahmen übergegangen, deren Gültigkeit nicht weiter hinterfragt wird, man nimmt sie halt an.

  3. Man präzisiert jetzt die Logik, mit deren Hilfe man etwas schliesst, verschiedene Bereiche haben ihre verschiedenen Logiken, mit denen man über Eigenschaften in diesen Bereichen schliessen kann, zB über “möglich”, “geboten”, “normalerweise”, etc.

2.1.2 Sprache

Allen diesen Logiken ist gemeinsam, dass man erst die Sprache, in der die Aussagen formuliert werden, präzisiert. Das sind (meist sehr einfache) Kunstsprachen, da sich die natürlichen Sprachen als zu komplex und vage herausgestellt haben.

Zum Beispiel gibt man sich ein Alphabet wie vor, und Operatoren wie “nicht”, “und”, “oder”, mit denen man aus dem Alphabet komplexere Ausdrücke formen kann, wie “nicht ”, “q oder ”, “nicht(p und q)”, “nicht(nicht r)” etc. (Dies ist die sehr einfache “Aussagenlogik”.)

Intuitiv: man beschreibt ein festes Objekt, wobei zB “p” für “rot” steht, “q” für “rund”, etc. In der Regel achtet man darauf, dass die Eigenschaften unabhängig voneinander sind, zB ist die Unabhängigkeit mit “p” “quadratisch”, “q” “rechteckig” verletzt, da aus “quadratisch” “rechteckig” folgt.

2.1.3 Herleitung (= Folgerung)

Mit Hilfe von Regeln kann man jetzt aus einer Menge von Aussagen neue Aussagen folgern, zB aus und kann ich “q und ” folgern.

Das kürzt man ab durch und wobei das Zeichen für “folgt” in klassischer Logik ist. Also: Aus der Menge A folgt in klassischer Logik “q und ”.

Wenn man Folgerungen in anderen Logiken untersucht, benutzt man oft statt das Zeichen und bedeutet dann: Aus der Menge A folgt in meiner anderen (mich jetzt interessierenden) Logik “q und ”.

Die Regeln und Voraussetzungen werden genau präzisiert, ihnen wird aber kein besonderer Status wie “unmittelbar einsichtig” oder so zugeschrieben.

Bemerkungen
  1. In vielen Logiken gilt die Regel “EFQ” ex falso quodlibet), das heisst, aus einer widersprüchlichen Aussagenmenge kann man alles Beliebige folgern, z. B. auch, dass der Mond aus Käse ist. Das ist nichts Tiefsinniges, und lässt sich relativ leicht zeigen, würde hier aber nur verwirren.

  2. Klassische Logiken sind “monoton” in dem Sinne, dass, wenn ich die Menge der Voraussetzungen vergrössere, ich keine möglichen Folgerungen verliere, kurz, wenn und dann auch

  3. Die obigen Logiken (über Normalfälle und das moralisch gebotene) sind “nicht-monoton”, weil ich durch Vergrösserung der Menge der Voraussetzungen unter Umständen Folgerungen verliere. Beispiel: Wenn meine einzige Voraussetzung “Vogel” ist, schliesse ich auf “fliegen”, wenn ich “Pinguin” zu den Voraussetzungen hinzunehme, kann ich nicht mehr auf “fliegen” schliessen (sondern sogar auf das Gegenteil: “nicht fliegen”). Daher findet man das Wort “nonmonotonic” im Titel von z. B. [Sch18].

2.2 Modelle (= Semantik)

Eine Sprache und Logik zu haben, bedeutet noch nicht, zu wissen, worüber man spricht und schliesst.

Das wird durch den Begriff der Modelle geklärt.

In obiger Sprache aus dem Alphabet hat man die 8 Modelle, die alle Möglichkeiten beschreiben:

  1. nicht

  2. nicht

  3. nicht nicht

  4. nicht

  5. nicht nicht

  6. nicht nicht

  7. nicht nicht nicht

das sind die 8 Möglichkeiten.

Ein Gegenstand kann rot, rund, zB aus Holz sein, oder eben nicht, alle 8 Varianten sind möglich.

Man kann dann definieren, wann eine Aussage in einem Modell gilt, und weiter

wenn: in allen Modellen, in denen alle Aussagen in A gelten, auch die Aussage a gilt.

Wenn man über andere als klassische Logiken spricht, verwendet man verwandte Zeichen, z. B. statt

2.2.1 Äquivalenz

Ziel logischer Arbeiten ist oft, die Äquivalenz von

und zu zeigen

(für klassische Logik wurde das natürlich schon vor langer Zeit gezeigt),

resp. für eine andere Logik die Äquivalenz von

und einer anders definierten Semantik,

Wenn man das zeigen kann, hat man bewiesen, dass für diese neue Logik der Herleitungsbegriff dem Modellbegriff entspricht.

In meinem Buch finden sich viele solche Beweise.

Zusammenfassungen: in Tabellen 1.2 bis 1.6, 45-53, Tabellen 4.1 - 4.5, 348-350, aber auch Abschnitt 3.3.2.4, 322 ff, etc. Manchmal kann man aber auch negative Ergebnisse zeigen, z. B., dass endliche Axiomatisierungen unmöglich sind, z. B. Abschnitt 4.3.2.4, 367 ff.

(Alle Angaben beziehen sich auf [Sch18].)

2.3 Präferentielle Modelle für “Normalität” und “Moralität”

(Dieser Absatz ist etwas “härter”.)

Wenn wir eine Menge von Modellen haben, und eine (Präfärenz-) Relation auf d.h. für einige Modelle in gilt interessieren wir uns für die in minimalen Modelle, d.h. die in für die es kein in gibt, mit (Das sind die normalsten oder moralisch besten Modelle in obigen Interpretationen von

  1. Wenn die Menge der minimalen Modelle in ist, gilt offensichtlich d.h. alle minimalen Modelle in sind Modelle in

  2. Wenn eine Teilmenge von ist, und ist in und in dann ist auch in

    Das sieht man am besten so:

    Nimm an, ist in und in aber nicht in dann muss es mindestens ein in geben mit Da aber eine Teilmenge von ist, ist dieses auch in also ist nicht minimal in Widerspruch. Folglich ist (mindestens) eine Annahme falsch, und wenn, wie vorausgesetzt, in und in ist, muss in sein.

Wir haben also die Eigenschaften

Wenn und und dann auch kurz:

Wenn dann

(Die Namen der Eigenschaften, und erklären sich aus dem Zusammenhang.)

Das Interessante ist, dass diese Eigenschaft (im Wesentlichen) präferentielle Strukturen charakterisiert, d.h. es gilt auch umgekehrt, wenn eine Auswahlfunktion die Eigenschaften und erfüllt, dann gibt es eine Relation die genau dieser Auswahlfunktion entspricht, d.h. für alle gilt:

ist -minimal in

(Siehe Proposition 1.3.1, 56.)

Der Autor nennt diesen Teil, d.h. die Eigenschaften und “algebraische Semantik”, weil sie algebraische Eigenschaften ausdrückt, und die entsprechende Relation die strukturelle Semantik, weil es eine Struktur ist.

Schliesslich gibt es eine dem entsprechende logische Axiomatik, siehe Proposition 1.3.20, 70. Die entscheidende Eigenschaft ist (PR), die obigem entspricht.

Dies zu erläutern würde zu lang werden, und wohl nicht so viel zusätzliche Erkenntnis bringen. Trotzdem ein Beispiel der Eigenschaften dort:

(LLE)

bedeutet (in meiner Notation): wenn die klassischen Folgerungen von und gleich sind, dann auch die Folgerungen in der Logik (Dies ist trivial, wenn die Logik über Modellmengen definiert ist.)

Wir haben also die Äquivalenzen:

Axiomatik Algebraische Semantik Strukturelle Semantik

(Diese Aufteilung charakterisiert auch viele meiner Arbeiten, sie hat sich als sehr fruchtbar herausgestellt, statt direkt

Axiomatik Strukturelle Semantik

zu zeigen, da man die verschiedenen Probleme so besser trennen kann.)

3 Maschinelles Lernen, neuronale Netze

Maschinelles Lernen, worüber heute viel gesprochen wird, basiert auf einer Selbst-Organisation von “neuronalen Netzen”. Der Autor weiss darüber fast nichts, nur dass das menschliche Gehirn wohl stärker strukturiert ist als neuronale Netze, aufgeteilt in verschiedene Gehirn-Regionen mit zum Teil unterschiedlicher interner Struktur und komplexen Verbindungen untereinander.

4 Rückblick

Der oben skizzierte logische Ansatz hat sicher zu Klärung von philosophischen und mathematischen Aspekten geführt, vielleicht weniger zur KI beigetragen, ich habe ihn immer auch als “experimentelle Philosophie” betrachtet.

5 Beiträge des Autors

Ich habe meist versucht,

  1. neue Konzepte zu entwickeln,

  2. neue Beweismethoden zu entwickeln,

  3. etwas schwierigere Beweise zu führen.

“Kap.” bezieht sich - wenn nicht anders explizit gesagt - auf die Kapitel der beiden Bände [Sch18].

5.1 Konzepte

An mehr oder weniger neuen Konzepten habe ich untersucht:

  1. algebraische vs. strukturelle Semantik (Kap. 1.2),

  2. abstrakte Grösse als algebraische Semantik für nicht-montone Logiken, in Aussagen- und Prädikatenlogik, sowie additive und multiplikative Eigenschaften davon, sowie ihre Verbindung zu logischen Eigenschaften, u.a. auch zu (logischer) Interpolation.

  3. abstrakte Distanz als algebraische Semantik für Theorie Revision, Update, Deontische Logik (Kap. 4.3),

  4. Definierbarkeits-Erhaltung (definability preservation), d.h., ob Operatoren definierbare Modellmengen wieder in definierbare Modellmengen überführen, und was passiert, wenn nicht (Kap. 1.7),

  5. Abgeschlossenheit der Modellmengen unter und (Kap. 1.5),

  6. Homogenität - das Problem wurde in [Sch97-2], Kapitel 1.3.11, angesprochen, aber erst in [GS16], Kapitel 11, bearbeitet, siehe hier Kap. 5.7. Merkwürdigerweise wird das Problem in der KI allgemein kaum beachtet, was daran liegen mag, dass es auch ein Problem der Erkenntnistheorie ist.

5.2 Methoden

  1. Meine wichtigste, und fast immer angewandte Methode, ist, Vollständigkeitsbeweise in zwei Unterbeweise zu trennen, einmal zwischen Axiomatik und algebraischer Semantik, und dann zwischen algebraischer und struktureller Semantik. Das trennt die Probleme viel klarer, als Beweise in einem Schritt zu führen, und zeigt gemeinsame Probleme (zum Beispiel mit Definierbarkeit) in teils sehr verschiedenen Beweisen auf.

    Z. B. hat die Existenz von interpolierenden Formeln zum Teil mit der Aussdrucksstärke der jeweiligen Sprache zu tun, dass interpolierence Modellmengen zwar existieren, aber nicht beschrieben werden können. Das, und der Zusammenhang zwischen multiplikativen Eigenschaften der abstrakten Semantik und Existenz von interpolierenden Modellmengen war zB unerwartet (Kap. 6).

  2. Mehr im Detail ist meine Methode, Modelle in präferentiellen Strukturen mit geeigneten Auswahlfunktionen, oder, in komplizierteren, transitiven, Fällen, mit geeigneten Bäumen, zu indizieren, sehr erfolgreich, sie hat auch erlaubt, Beweismethoden auf neue Bereiche zu übertragen, zB auf Mengen von Folgen (Kap. 1.3).

  3. Zum Beweis der Unmöglichkeit von Axiomatisierungen gewisser Grösse (endlich, oder unendlich, aber von fester unendlicher Grösse) habe ich, wie üblich, Diagonalmethoden benutzt, sie dem jeweiligen Fall angepasst (u.a. “Hamsterrad” in der Theorie-Revision, und die weit komplizierteren Beweise für präferentielle Strukturen ohne Definierbarkeits-Erhaltung resp. die -Variante hiervon.) (Kap. 1.7, 4.3.2)

5.3 Resultate

Meine wichtigsten Resultate sind wohl

  1. eine Reihe von Repräsentationssätze für präferentielle Logiken, auch die Trivialisierung resp. Unlösbarkeit im üblichen Sinne der -Variante (Kap. 1.3-1.7),

  2. die generelle Bedeutung von Definierbarkeits-Erhalt, sowie von Abschlusseigenschaften der Definitionsmenge (Kap. 1.7),

  3. Repräsentation von “normalerweise” in der Prädikatenlogik (Kap. 3.3),

  4. Distanz-Semantik für Theorie Revision (mit Lehmann und Magidor), Unmöglichkeit endlicher Axiomatisierung (Kap. 4.3),

  5. Interpolation und Verbindung zu multiplikativen Eigenschaften abstrakter Semantik (Kap. 6.5),

  6. abstrakte Unabhängigkeit von Funktionenprodukten (Kap. 8).

References

  • [1]
  • [GS16] D. Gabbay, K. Schlechta, “A New Perspective on Nonmonotonic Logics”, Springer, Heidelberg, Nov. 2016, ISBN 978-3-319-46815-0,
  • [Sch18] K. Schlechta, “Formal Methods for Nonmonotonic and Related Logics”, Vol. 1: “Preference and Size”, Vol. 2: “Theory Revision, Inheritance, and Various Abstract Properties” Springer, 2018
  • [Sch97-2] K. Schlechta, “Nonmonotonic logics - basic concepts, results, and techniques” Springer Lecture Notes series, LNAI 1187, Jan. 1997.