Skip to main content
main-content

Inhaltsverzeichnis

Frontmatter

Teil 1

Eingeladene Hauptvortäge

Temporal Issues in Qualitative Reasoning

There is currently much interest in developing Knowledge Based Systems for reasoning about the behaviour of physical systems. Such interest stems from the need to reasong about complex systems as part of some automated system such as:- fault diagnosis, simulation, control, training etc. In some cases the motivation for such work arises because of a fundamental difficulty in developing models based on traditional numerical methods [Leitch, 1987]. Whereas in other cases, the goal is to develop simpler computational mechanisms, than currently exist, and yet still satisfy the requirements of the task for which the system has been modelled. This has led to intense activity, over the last decade, to develop theories of Qualitative Reasoning (Modelling) that allow a qualitative description of a physical system to be generated from a representation of the system’s internal structure.

Roy Leitch, Mark Wiegand

Current Issues In Language Understanding

This paper consists of three parts. The first part discusses language understanding and how it relates to Artificial Intelligence. The second part considers some of the fundamental issues in recent work in computer understanding of natural language. The third part very briefly outlines a theory of integrated knowledge-based language interpretation, which the design of language understanding systems badly needs.

Harry Bunt

Equational Theorem Proving and Rewrite Rule Systems

Equational theorem proving is interesting both from a mathematical and a computational point of view. Many mathematical structures like monoids, groups, etc. can be described by equational axioms. So the theory of free monoids, free groups, etc. is the equational theory defined by these axioms. A decision procedure for the equational theory is a solution for the word problem over the associated algebraic structure. From a computational point of view, abstract data types are basically described by equations. Thus, proving properties of an abstract data type amounts to proving theorems in the associated equational theory.One approach to equational theorem proving consists in associating a direction with the equational axioms, thus transforming them into rewrite rules. Now in order to prove an equation a = b, the rewrite rules are applied to both sides, finally yielding reduced versions a’ and b’ of the left and right hand sides, respectively. If a’ and b’ agree syntactically, then the equation holds in the equational theory. However, in general this argument cannot be reversed; a’ and b’ might be different even if a = b is a theorem. The reason for this problem is that the rewrite system might not have the Church-Rosser property. So the goal is to take the original rewrite system and transform it into an equivalent one which has the desired Church-Rosser property.We show how rewrite systems can be used for proving theorems in equational and inductive theories, and how an equational specification of a problem can be turned into a rewrite program.

Franz Winkler

Wissensbasierte Systeme

Strukturierte Wissenserhebung für Expertensysteme — Methodik und Repräsentation

Bei der Entwicklung von Expertensystemen fehlt weitgehend eine Unterstützung bei der Modellierung des Expertenwissens, woraus eine schlechte Reprasentation und damit eine unzureichende Verständlichkeit und mangelnde Erklärungsfahigkeit resultiert. Wir schlagen eine Top-Down-Methodik zur Entwicklung von Klassifikationssystemen vor, die ein implementierungsunabhängiges Modell der Expertise auf vier Abstraktionsebenen liefert. Wir geben weiter einen Repräsentationsformalismus an, der die adäquate Umsetzung des Modells erlaubt. So entwickelte Expertensysteme haben eine explizite Darstellung eines konzeptuellen Modells, sind damit besser verstandlich und haben eine solide Basis für Erklärungen.

Marita Möller

Ein Erfahrungsbericht zur Strukturierung medizinischen Wissens in VIE-MED, einem Expertensystem für den Bereich der ärztlichen Primärversorgung

In diesem Bericht wird die bisherige Arbeit im Rahmen des Projektes VIE-MED, einem medizinischen Expertensystem fur die Domäne der ärztlichen Primärversorgung, zusammengefaβt. Dabei werden neben der Entwicklung der Struktur des Systems auch Überlegungen, die zu schrittweisen Veränderungen und Erweiterungen geführt haben, dargestellt.

Paolo Petta, Werner Horn, Karl Schießer

ARTEX — Configuration-Driven Diagnosis for Routing Systems

ARTEX1 is a hybrid knowledge based system combining logic programming and object- oriented representation techniques. Its application domain are routing systems for high-quality audio signals, which are assembled of modules out of a determined set of components. Due to the large number of different configurations of routing systems, the diagnostic knowledge of ARTEX has to work with every individual system derived from the generic system model. This paper describes the integration of an object-oriented system model with diagnosis rules, as well as the flexible and concise diagnostic strategies enabled by this integration. ARTEX is used for several tasks during the life-cycle of an audio routing system.

Gerhard Fleischanderl, Gerhard Friedrich, Johannes Retti

Ein System zur fallbasierten Wissensverarbeitung in technischen Diagnosesituationen

Es wird ein System vorgestellt, das mit Hilfe von Diagnosefällen und darauf aufsetzenden Mechanismen fallbasierter Wissensverarbeitung das Diagnoseverfahren und die Wissensakquisition eines technischen Diagnosesystems verbessern kann. Am Beispiel des Systems MOLTKE2 werden derzeit (Dez.’88) zwei ‘Meilensteine’ auf dem Weg zur vollständigen Realisierung eines derartigen Systems implementiert und in diesem Papier ausführlich beschrieben.

Klaus Althoff, Sabine Kockskämper, Frank Maurer, Michael Stadler, Stefan Weß

Das Blackboard-System BASAR

Die Software-Architektur BASAR (BAsis Software ARchitektur) wurde entwickelt, um die abstrakte und von einem Fenstersystem unabhangige Spezifikation von Benutzerschnittstellen zu ermöglichen. Das System wurde dahingehend erweitert, daB beliebige Wissensquellen mittels Auftrage iiber ein zentrales Informationsmedium — die Blackboard — miteinander kommunizieren können. Aufträge repräsentieren hier Probleme, die von einem oder mehreren Experten (Wissensquellen) gelöst werden sollen. Der Beitrag schildert den Aufbau und die Funktionsweise von BASAR.

Klemens Waldhör

Ein Neues Konzept Wissensbasierter Systeme Zur Lösung Der Wegeprobleme Für Autonome Mobile Roboter

Das dargestellte Projekt zielt auf die Entwicklung und Realisierung eines neuartigen Konzeptes eines wissensbasierten Kontrollsystems für autonome mobile Roboter. Hierbei werden im Unterschied zu bisher bekannten Forschungsergebnissen gleichzeitig verschiedene Typen von Wegeproblemen behandelt. Verschiedene durch Regeln formulierbare Umweltmodelle und Algorithmen führen zu entsprechenden Lernverfahren.

W. Tian, W. Weber

Logik / Deduktion

Learning Heuristics for a Theorem Prover using Back Propagation

One of the major problems in the field of theorem proving is the reduction of the huge, often exponential, search space. Up to now there exist no theories for selecting the optimal search strategy (heuristics) for a given formula in general. We will describe two different approaches using back propagation networks for learning global and local heuristics. First experiments and promising results for a theorem prover for propositional logic connected to a back propagation network will be shown.

Wolfgang Ertel, Johann M. Ph. Schumann, Christian B. Suttner

Zeitbeschränkte Logische Programmierung

Wir stellen mit zeitbeschränkter logischer Programmierung ein neues Modell für logisches Programmieren vor, das eine explizite Behandlung der Herleitungszeit im logischen Ableitungsprozeß beinhaltet. In diesem Modell garantiert der Herleitungsmechanismus, daß eine Antwort (positiv oder negativ) nach einer vorgegebenen Zeit erfolgt Diese Zeitschranke beeinfluBt den Ablauf des logischen Programms. Wir beschreiben Anwendungsgebiete dieser neuen Methode, geben Definitionen der Konzepte und eine Implementierungstechnik mit einem einfachen Metainterpreter. Probleme der Zeitaufteilung werden diskutiert, Erweiterungsmöglichkeiten und offene Probleme.

Andreas Zell

An effective decision algorithm for prepositional temporal logic

The paper provides a decision algorithm for Kröger’s temporal propositional logic based on the construction of “finite” counterexamples defined by finite graphs, where each node may represent different but equivalent stages of the infinite time line. The paper characterizes the operations definable in the logic, i. e. its strength.

M. Baaz

The Range Form of Databases and Queries or: How to Avoid Floundering

We define the range form of deductive databases and queries. We prove that transformation into range form preserves logical equivalence. On the basis of the range form, we define the class of range restricted deductive databases and queries. SLDNF-resolution is used for query evaluation. We show that query evaluation of range restricted deductive databases and queries never flounders, and that range restricted is broader than comparable properties found in the literature.

Hendrik Decker

Natürlichsprachige Systeme

Die Anwendung Generalisierter Quantoren in einem natürlichsprachigen Datenbank-Interface

One main task of a natural language interface to a relational database is to map the semantic structures created by the parser onto database relations by translating them into statements of the query language. In this paper we present a method which employs an intermediate logical representation based on the theory of Generalized Quantifiers. These theoretical foundations provide the framework for an effective and straightforward implementation.

Wolfgang Heinz, Johannes Matiasek

“Sprechende Objekte” Erzeugung natürlichsprachlicher Phrasen aus Objektrahmen und Regeln

Für die Konstruktion von Wissensbasen haben sich objektorientierte Darstellungen durchgesetzt. Allerdings ist es nicht einfach, auf ihrer Basis gute Benutzerschnittstellen zu konstruieren: bei Expertensystemen sollen diese meist Auskünfte oder Berichte in natürlicher Sprache anbieten. Die vermutlich beste Beschreibung solcher Texte sind „semantische Grammatiken“, die sich in Prologals Definite Klausel-Grammatiken realisieren lassen. Sie erzeugen die natürlichsprachlichen Formulierungen automatisch. Ihre semantischen Einschübe könnnen die Bedeutungsinhalte der von ihnen zu generierenden Sätze aus der Objektbasis erfragen.Dieses Konzept setzt voraus, daß die Grammatik aus der Objekthaltung die Informationen bereits als fertige Phrasen beziehen und ohne weitere Aufbereitung an den gerade expandierten Textstellen einsetzen kann. Für ein objektorientiertes System wurde in Prolog eine entsprechende Schnittstelle implementiert. Ein auf dieser Basis implementiertes Expertensystem kann auf Textbausteine oder ähnliche Hilfsmittel verzichten.

Peter Schnupp

Lernen von Syntax natürlicher Sprache

Im folgenden wird ein System beschrieben, das Lexical Functional Grammars aus Beispielen lernt. Das Programm wurde mit Teilen natürlichsprachiger Grammatik, vor allem mit einer großen Teilmenge der deutschen Grammatik, getestet. Die Einteilung der Worte in grammatikalische Klassen wird ebenfalls gelernt, sodaß keine a-priori Inforation über die zu lernende Grammatik notwendig ist. Als Eingabe dienen der Grammatik angehörige Sätze, negative Evidenz ist nicht notwendig, zur Vermeidung von Übergeneralisationen wird semantische Information verwendet. Der beschriebene Algorithmus zeichnet sich durch niedrigen Speicherbedarf und geringe Rechenzeit aus.

Herbert Groiss

Lernen

Extending Explanation-Based Generalization

We show how disjunctive augmentation (DeJong88) can be achieved by retaining complete explanation structures instead of extracting one single rule out of such a structure. The proposed algorithm integrates knowledge learned from several examples, a common EBL problem. Also the operationality/generality trade-off is accounted for dynamically. Furthermore we discuss some possible extensions.

Bernhard Pfahringer

Wissensbasiertes Lernen in der Musik: Die Integration induktiver und deduktiver Lernmethoden

Der vorliegende Beitrag beschreibt eine neue, wissensintensive Lernmethode im Kontext eines interaktiven ‘Learning Apprentice Systems’ fur ein musikalisches Anwendungsgebiet, nämlich zweistimmige Kontrapunkt-Komposition. Die Lernmethode integriert Aspekte deduktiven und induktiven Lernens; sie ist ein allgemeines Schema und somit nicht musikspezifisch. Die Notwendigkeit solcher hybrider Lernalgorithmen wird vom Standpunkt des maschinellen Lernens im allgemeinen und der musikalischen Ausgangssituation im speziellen motiviert. Die verschiedenen Arbeitsmodi des Algorithmus werden einzeln beschrieben, und ihre Funktionsweise wird anhand einfacher Beispiele aus dem musikalischen Anwendungsbereich demonstriert.

Gerhard Widmer

Dynamische Generierung von Units in einer Sprache für Neurale Netzwerke

Im Gegensatz zu den bekannten Sprachen /1/ für NN, die das Konzept einer statischen Topologie aufweisen, soil im folgenden auf die Vor- und Nachteile einer dynamischen, sich zur Lauf- (und Lern-)zeit verändernden Topologie eingegangen werden. Das Konzept dynamischer units vereint die bisherige Trennung des Netzdesigns in Aufbau und Ablauf. Der Vorteil der besseren Anpassung der Unitanzahl an die Problemstellung, die die Lösung mancher Probleme erst ermöglicht, steht dem Nachteil eines weniger übersichtlichen Netzaufbaues und einer schwierigeren Handhabbarkeit gegeniiber.

Monika Köhle, Franz Schönbauer

Methoden der AI

An Outline of a New Algorithm for Game Tree Search

In this paper the basic ideas of a new, flexible and knowledge-intensive algorithm for game tree search are outlined. A quick selection is made by filtering out the most promising part of a usually large game tree (in the discovery phase). This partial tree can be examined afterwards in a more intensive way (in the decision phase). Notable features of the algorithm are a method for the suitable expansion of the search tree, means for a finegrained evaluation of uncertainties and a basis for well-founded decisions.

H. Horacek, H. Kaindl

Eine Neue Methode zur Parallelisierung von Produktionensystemen

Die wachsende Bedeutung von Echtzeit-Anwendungen von Produktionensystemen erfordert die Entwicklung von Methoden zur Verringemng der Antwortzeiten. Aufgrund der beschränkten Rechenleistungen von Monoprozessorenist es notwendig, die inhärente Parallelität von Produktionen-systemen mittels Multiprozessorsysteme auszunützen. Um dies effizient durchführen zu können, benötigtman geeignete Algorithmen, die eine möglichst gleichmäßige Auslastung derProzessoren gewährleisten, ohne dabei den entsprechenden Organisations- und Kommunikations-Overhead dramatisch zu eihöhen. Es wird ein für Produktionensysteme allgemein verwendbarer Scheduling-Algorithmus vorgestellt, der auf einer dynamischer Verteilung von Daten beruht.

H. Mistelberger, E. Bahr, F. Barachini

Variant Construction Using Constraint Propagation Techniques Over Semantic Networks

A severe problem in Software Engineering is to support the development of software systems that arise by slight modifications of existing ones without being forced to do a complete redesign. In this paper we take a very general point of view regarding such software systems as complex objects and represent them in semantic networks using part-of-relationships and constraints on the parts. We present an algorithm W* that constructs variants defined by changes to some concepts involved in an object definition. W adapts local constraint propagation techniques to generate first a generalization and then a specialization. We discuss the power of W* in relation to what was the intended result of changing components.

Klaus-Dieter Schewe

Anwendungen der AI

SAFIR — Intelligente Software für den Zugriff zu unterschiedlichen Datenbanken

Bei Entwicklungen und Forschungen im Bereich von Industrie und Hochschule spielt yerfügbare Information eine zentrale Rolle. Es gibt bereits viele Firmen, die Informationen in Form von anwähibaren Datenbanken anbieten. Für den Informationssuchenden ist die Lage so, daß vielleicht ein Großteil der gewünschten Informationen vorhanden ist, daß er aber nicht weiß, wo diese Informationen gespeichert sind, und wie er darauf zugreifen kann.

Volkmar H. Haase, Monika Reiter

Cognitive Science

AI AND COGNITIVE SCIENCE — Themes for the Next Decade

Reconstructing knowledge leads to epistemological questions. They have to be discussed within Cognitive Science because within AI neither implicit assumptions nor methodological consequences are considered. An effective instrument for interdisciplinary research is developed. It is based on a common terminology and applied to one of the unreflected areas of Computer Science — Knowledge Reconstruction.

Christian Stary, Friedrich Wallner

Workshop „Konnektionismus“

Konnektionismus in der AI

Der Ausdruck ’Konnektionismus’ faßt sämtliche Versuche, Modelle auf Computern (oder neu zu entwickelnden Maschinen) in Anlehnung an natürliche neurale Netzwerke zu bauen, zusammen. Die wohl interessanteste aber auch herausfordernste Anwendung solcher Modelle ist der Versuch, intelligentes Verhalten, oder Teile davon, damit zu simulieren. Sollte das gelingen, so reihen sich konnektionistische Modelle als ernstzunehmende Anwärter in die weitlaufige Phalanx der Artificial Intelligence (AI) Systeme ein. Ja mehr noch, sie könnten diese sogar großteils verdrängen oder sie zumindest nachhaltig beeinflussen. Die möglichen Gründe und Hintergründe die für oder gegen diese These sprechen, sollen Thema dieses Workshops sein.

Georg Dorffner

A Note on K. Bock’s “Syntactic Adjustment Effect” Problem

During the last few years connectionist models have been developed for most fields of cognitive science. The basic concepts of these models were discussed in detail by Rumelhart and McClelland (1986). There are also a lot of papers giving surveys of connectionist modelling (e. g. Feldman, Fanty amp; Goddard 1988, Kemke 1988, McClelland 1988 — to mention only some of the most actual ones). As McClelland (1988) argues, these models work best if a multilayer processing system is to be modelled, and if processing is interactive among these layers (p. 115). Both is true in models dealing with language production theories, as Bock (1982, 1987) suggested by elaborating theories of Fromkin (1971) and Garrett (1975, 1980).

Ulrich Schade

Erfahrungen mit einem Neuralen Netz, das BRIDGE spielen lernt

Die Lizitation in Bridge ist durch Regeln gut beschreibbar, deren große Anzahl jedoch bereitet traditionellen AI-Methoden Probleme. In diesem Paper beschreiben wir ein Neurales Netz, das anhand von Beispielen das Erst-Lizit erlernt. Durch Variation der Beispiele können verschiedene Konventionen mit geringem Aufwand erlernt werden. Subtile Differenzen des Verhaltens verschiedener Spieler werden vom Netz übernommen.

Monika Köhle, Franz Schönbauer

Detection of Minimal Microfeatures by Internal Feedback

We define the notion of minimal microfeatures and introduce a new method of internal feedback for multilayer networks. Error signals are used to modify the input of a net. When combined with input decay, internal feedback allows the detection of sets of minimal microfeatures, i. e. those subpatterns which the network actually uses for discrimination. Additional noise on the training data increases the number of minimal microfeatures for a given pattern. The detection of minimal microfeatures is a first step towards a subsymbolic system with the capability of self-explanation. The paper provides examples from the domain of letter recognition.

J. Kindermann, A. Linden

Cognitive Modelling: Von der symbolischen AI zum ’connectionist approach’

Dieser Aufsatz zeigt anhand von philosophisch und auch logisch klar erscheinenden Argumenten die Defizienz der Meinung, daß man universell intelligente Maschinen auf der Basis der physical symbol system hypothesis1 [NEWE 76], [NEWE 80] aufbauen könne. Trotz der Erfolge, die die orthodoxe AI für sich verbuchen kann, scheint sie in einer Sackgasse zu stecken, die sich aus den falschen Annahmen der PSSH ergibt. Als möglicher Ausweg aus diesem Dilemma wird das Paradigma des ’neural computings’ vorgestellt, das zumindest die wesentlichen Kriterien für universell intelligentes Verhalten zu erfüllen scheint. Es wird eine ausführliche Gegenüberstellung aus der Sicht der PSSH, der Philosophic und des connectionism gegeben.

Markus F. Peschl

Zur Möglichkeit der Konstruktion von Theorien durch die Minimierung der Entropie des Beobachteten auf der Basis konnektionistischer Modelle

Die Einsatzkonzeption der Boltzmannmaschine unterscheidet sich nicht von der herkömmlicher Computer, so daß auch hier der Mensch, als Experte, entscheidet und festlegt, was zu lernen ist. Um eine künstliche Intelligenz von diesem für die Computer transzendenten und damit nicht programmier- baren aber auch nicht fortzulassenden Zeigefinger abzunabeln, wird hier auf Basis der Annahme, beobachtbare Veränderungen können thermodynamisch beschrieben werden, die Möglichkeit unter- sucht, durch die Minimierung der Entropie des Beobachteten, die im Augenblick günstigste, richtige Theorie für ein gezieltes, sich harmonisch einfügendes Verhalten zu konstruieren.

Carl Albert Schreiber

Workshop „Begriffsbildung/modellierung“

Begriffsbildung/modellierung

Workshop — ÖGAI-Tagung 1989

Bei Anwendungen in verschiedenen Bereichen der Al (Expertensysteme, Planungssysteme, Natürlichsprachige Systeme) spielt das Problem einer adäquaten Modellierung des relevanten Domänenwissens eine wichtige Rolle. Die Theorie bietet zu diesem Zweck zwar vergleichsweise zahlreiche Wissensrepräsentationsformalismen an, es gibt jedoch kaum Richtlinien zu einer geeigneten Aufbereitung der Inhalte (Begriffsbildung und -strukturierung, Ontologie). Da aber in dieser Hinsicht großer Bedarf besteht, liegt die Vermutung nahe, daß die Erstellung einer geeigneten Ontologie (und besonders die Formulierung von Richtlinien dafür) mit großen Schwierigkeiten verbunden ist.

Helmut Horacek

Begriffsbildung im Bereich Natürlichsprachiger Systeme

In diesem Beitrag soil versucht werden, einen Überblick über verschiedene Methoden der Begriffsbildung zu geben, wie sie im Bereich naturlichsprachiger Systeme vorkommen. Daneben wird auch auf die Frage eingegangen, inwieweit sich der zugrundeliegende Reprasentationsformalismus auf die Begriffsbildung auswirkt. Dabei sollen Aspekte wie Granulans des Wissens, Natürlichkeit der Darstellung und Expressivität untersucht werden. Daraus ergibt sich einerseits eine Bewertung unterschiedlicher Ansätze zur Begriffsbildung als auch Anforderungen an die Reprasentationsformalismen.

Harald Trost

Begriffsdefinitionen und Referenzidentifikation definiter Beschreibungen Neues aus der Beziehungskiste

Bei der Referenzidentifikation definiter Beschreibungen spielen bestimmte Relationen zwischen Begriffen eine wichtige Rolle. In dieser Arbeit wird beschrieben, auf welche Art und Weise lexikalisch-semantische Relationen in einer’term definition language’ (TDL, vgl. [BRACHMAN85]), wie QUIRK [BERGMANN87], repräsentiert werden konnen, und welche Auswirkung dies auf die Definition von Begriffen hat.

Manfred Gehrke

Die logische Rekonstruktion eines Gegenstandsbereiches — Eine Fallstudie —

In dieser Arbeit wird die Rekonstruktion von Aspekten eines Gegenstandsbereichs des LILOG-Systems vorgestellt. Im Vordergrund steht hier die Rekonstruktion eines Teils des Weltwissens, das für das Verstehens eines natürlichsprachlichen Textes notwendig ist. Diese Rekonstruktion umfaßt die in diesem Text auftretenden Referenzobjekte und deren zugehörige Sortenhierarchie. Als Sortenbeschreibungssprache wurde eine Variante der logikbasierte Beschreibungs- sprache S0RTLLILOG LILOG-Projektes genommen. Die Möglichkeiten und Schwierigkeiten einer solchen Rekonstruktion werden aufgezeigt und diskutiert.

Kai v. Luck, Ralf Meyer, Thomas Pirlein

Workshop „Qualitatives Schließen“

Workshop Qualitatives Schließen

Unter dem Begriff Qualitatives Schließen verstehen wir sowohl Methoden zur qualitativen Modellierung als auch Problemlösungsverfahren auf der Grundlage solcher Modelle im Bereich naturwissenschaftlicher Phänomene und technischer Prozesse und Systeme. Solche Verfahren dienen zum Beispiel zur Simulation, Diagnose, Vorhersage, Überwachung oder Führung von Systemen. Wie auch im Arbeitsprogramm des Arbeitskreises Qualitatives Schließen im Fachausschuß 1.2 der Gesellschaft für Informatik (GI) beschrieben [KI 4∣88], beinhaltet dies die Repräsentation der wesentlichen Charakteristika von Struktur, Verhalten und Funktion physikalischer Systemedie Behandlung kausaler, zeitlicher und räumlicher Beziehungendie Verwendung von qualitativen Kalkülen, qualitativer Simulation und Reasoning-Methoden der Kldie Erforschung mentaler Modelle physikalischer Phänomene („Naive Physik“) und deren Integration.

Peter Struss, Hans Voß

Qualitative Simulation des zeitlichen Verhaltens von Thyristorbrückengleichrichterschaltungen

Dieses Papier beschreibt ein Verfahren zur qualitativen (bzgl. verschiedener Aspekte) Simulation des (korrekten und fehlerhaften) Verhaltens von Thyristorbrückengleichrichterschaltungen. Das Verhalten von Thyristoren wird durch Zustandsübergangsgraphen modelliert. Zur Berechnung von Spannungen und Strömen innerhalb der Schaltung wird das Maschenstromverfahren verwendet. Technisch beruht die Simulation auf einem Constraint-Mechanismus zur Propagierung von Wert-Zeitintervall-Paaren.

Rainer Decker

Convex Relations Between Time Intervals

We describe a fragment of Allen’s full algebra of time interval relations (the algebra of convex relations) that is useful for describing the dynamic behavior of technical systems. After an intuitive description of the fragment we give two formal definitions and prove that they are equivalent. This provides the basis for the major result of the paper: in a time net in which all interval relations are convex the test for the global consistency of the edge labelling can be carried out in polynomial time (in the general case it is NP-complete). This result makes convex interval relations an attractive candidate whereever qualitative reasoning about technical systems requires testing for global instead of local consistency.

Klaus Nökel

Repräsentation und Verarbeitung von zeitlichem Wissen

Die Betrachtung von Zeit spielt in vielen Anwendungsbereichen der Informatik eine wachsende Rolle. In diesem Papier stellen wir einige Aspekte der Zeitbetrachtung vor, die wir bei der Implementierung eines Temporal-Reasoning-Systems (TRS) im WISDOM-Verbundprojekt ausgearbeitet haben.Vorgängen und Ereignissen ordnen wir zeitliche Intervalle zu, in denen sie stattfinden bzw. auftreten. Wir stellen dar, wie sich auch der Zeitpunktbegriff dem Intervallbegriff unterordnen läßt. Weiter wird erläutert, wie sich Intervalle auf eine feste Zeitachse (z.B. auf unseren Jahreskalender) abbilden lassen und wie aus einer solchen Abbildung ein Zeitdauerbegriff abgeleitet werden kann. Schließlich gehen wir noch darauf ein, wie Aussagen über relative Beziehungen von Intervallen, absolute Zuordnungen von Intervallen auf eine Zeitachse und Zeitdauerangaben verknüpft werden können und welche Probleme bei der Überprüfung solcher Aussagen auf Konsistenz auftreten.

Klaus Faidt, Stephan Flohr, Rainer Bleisinger

Teil 2

Workshop „Philosophische Aspekte der Künstlichen Intelligenz“

KI — Eine Teildisziplin der Philosophie

Daß in letzter Zeit innerhalb des Fachbereichs „Künstliche Intelligenz“ (KI) das Interesse an philosophischen Fragen sprunghaft zugenommen hat, ist sicherlich keine leichtfertig getroffene Behauptung und läßt sich auch an einigem Schriftgut dokumentieren.1 Umgekehrt scheint sich die Philosophie in immer stärkerem Ausmaß um Probleme der KI zu bemühen. Ich denke hier nicht nur an schon lägst in der KI etablierte Problemfelder, sondern an eine bunte Palette neuer Tätig- keitsformen, die von den angestammten Fragestellungen der analytischen Philosophie und Wissenschaftsphilosophie über phänomenologische Ansätze bis hin zu ethischen Überlegungen zur KI reichen. So sehr diese Entwicklung für den Fachphilosophen erfreulich sein mag, gilt es doch neue Betätigungsfelder fruchtbar zu machen, so macht diese allzu große Euphorie den aufmerksamen und distanzierten Beobachter zunächst einmal mifitrauisch: Es bleibt einmal offen, ob die an eigenen Problemen ärmer werdende Philosophie hier nicht die KI als Arbeitsplatzbe- schaffung mifibraucht oder ob umgekehrt von seiten der KI ein echter Bedarf an philosophischen Fragestellungen tiberhaupt vorhanden ist. Zeichen dafür, daß, mit Kuhn zu reden, die ruhigen Zeiten der „normal science“ für die KI abgelaufen sind, sind zwar vorhanden, und der Ruf nach einem „Paradigmenwechsel“ wird selbst in traditionellen Kreisen in der KI unüberhörbar.2

Karl Leidlmair

Heideggers Philosophie der Mathematik als Vorbild für eine Philosophie der Künatlichen Intelligenz

Es gibt weder ein Buch noch einen Abschnitt in einem Buch von Heidegger und auch keinen Aufsatz von ihm mit dem Titel „Philosophie der Mathematik“. Im Zusammenhang mit seiner Kant-Interpretation und hier insbesondere bei der Hinführung zur „Kritik der reinen Vernunft“ hat sich Heidegger jedoch recht ausführlich über Grundlagen und Wesen der Mathematik geäufiert. Die Beschäftigung mit Mathematik ist für Heidegger nicht Selbstzweck, sondern Mittel zum Zweck: durch einen Blick auf Mathematik soil das Verständnis für die „Kritik der reinen Vernunft“ gefördert werden. Deshalb arbeitet er die Ausführungen über Mathematik je nach Bedarf und also recht unsystematisch in seine ansonsten streng gegliederte Untersuchung ein. Im ersten Teil meines Vortrags möchte ich eine systematische Presentation dieser Heideggerschen Philosophie der Mathematik geben. Im zweiten Teil werde ich dann eine Philosophie der Künstlichen Intelligenz skizzieren, die sich sowohl methodisch als auch inhaltlich an der zuvor geschilderten Philosophie der Mathematik als Vorbild orientiert. Das führt — wie ich zeigen werde — zu einer Bereicherung der gegenwärtigen philosophischen Diskussion um die Künstliche Intelligenz.

Knut Radbruch

Zur philosophischen Relevanz der Konnektionismus-Debatte

In der Philosophie des Geistes gibt es im Prinzip nur ein Problem: das sog. Leib-Seele- oder Körper-Geist-Problem. Alle anderen Probleme, die in der Philosophie des Geistes diskutiert werden, entpuppen sich beim näheren Hinsehen als eine Variante dieses Problems oder als untergeordnete Teilprobleme. Kurz gesagt besteht das Problem darin zu erklären, wie die physikalische Welt mit der geistigen Welt interagiert.

Gerhard Helm

Apophansis und Kognition

Die Frage ist zunächst: Wie ein Begriff von Kognition, der unser wissenschaftliches Handeln in theoretischer und praktischer Hinsicht bestimmt, dessen Bedingtheit und Unangemessenheit sich dagegen sehr deutlich zeigt, wie ein solcher Begriff substituiert werden kann durch eine Vorstellung dieses Gefüges von Wahrnehmen, Erkennen und Handeln, welches wir Kognition nennen, die aus einem weiteren, tieferen Horizont heraus erwachst und offensichtliche historische Zufälligkeiten vermeidet rsp. aufhebt.

Christoph Lischka

Können AI-Programme als Theorien betrachtet werden? Ein wissenschaftsphilosophischer Beitrag

Eine Vielzahl von AI-Forschern betrachtet erfolgreiche AI-Programme als Theorien über die modellierten Phänomene. Der vorliegende Beitrag untersucht, inwieweit diese Auffassung gerechtfertigt ist. Während bei der Umsetzung einer vorliegenden Theorie in ein Computerprogramm dem Programm i. a. ein Theorie-status nicht abzuleugnen ist, können nicht alle erfolgreichen Al-Programme auch als Theorien betrachtet werden. Da Theorien erklärungskraftig sind und Erklärungen nur mit Hilfe von Gesetzen möglich sind, müssen „theoretische“ Programme gesetzesartige Verallgemeinerungen enthalten. Sich daraus ergebende Probleme werden am Schluß dieses Aufsatzes diskutiert.

Klaus Manhart

Philosophical assumptions in Artificial Intelligence: a tentative criticism of a criticism

It is well known that, as a result of the development of computability theory and computer science, certain higher processes usually called “intelligent” have been proved as algorithmic, contrary to previous assumptions, Thus the hypothesis arose that it was possible to find a new level of explanation which could be crucial for the study of mind. In the course of the short history of AI, the hypothesis became more explicit. More recently Allen Newell (1980) discussed it as the physical symbol system hypothesis, widely accepted both in (classical, not connectionistic) AI and in cognitive science.The level of explanation chosen as the crucial one was the symbol level.

Roberto Cordeschi

Linguistische Probleme der KI

Situations, Topoi, and Dispositions

On the phenomenological modelling of meaning

Submitting to the dualism of the rationalistic tradition of thought and its notions of some (objective) reality and the (subjective) conceptions of it, BARWISE/PERRY (1983) have presented a new approach to formal semantics which, essentially, can still be considered a mapping of this duality, mediated though by their notion of situation. Within their relational model of meaning, any language expression is tied to reality in two ways: by the discourse situation allowing its meaning being interpreted and by the described situation allowing its interpretation being evaluated truth-functionally. This is achieved by recognizing similarities or invariants between situations that structure a system’s surrounding environments (or fragments thereof). Mapping these invariants as uniformities across situations, cognitive systems attuned to them are able to identify and understand those bits of information which appear to be essential to form these systems’ particular view of reality: a flow of types of situations related by uniformities like individuals, relations, and time-space-locations which constrain “a world teaming with meaning”1 to become interpretable fragments as persistent courses of events.

Burghard B. Rieger, Constantin Thiopoulos

Meaning and Representations

It is suggested that there are two kinds of meaning: the meaning-of-terms and the meaning-of-texts. Only the first kind can be represented. The second is an execution of special software or machines.

Giuseppe Trautteur

Language limits and world limits in the age of AI

Sapir and Whorf Revisited

“The limits of my language mean the limits of my world” (TLP: 5.6) in a way summarizes what I will have to say within the rather narrow limits of the present paper — ten pages is a length inviting either technical brilliance or programmatic enthusiasm, and I hope readers will forgive me for opting for the latter.

Josef Wallmannsberger

Konzeptionelle Grenzen der KI

Künstliche Intelligenz und Gödel-Theoreme

Schon Ende der 40er Jahre hat A.M.Turing1 die Frage diskutiert, ob Computer intelligent, sein können, bzw. inwieweit sie menschliches Denken ersetzen können. Können Maschinen, wie es G.Günther formulierte, „Bewußtsein“ haben? 2 Heute wird meist unter dem Schlagwort „Künstliche Intelligenz“ die Frage diskutiert, ob und inwiefern Computer denken können, ob sie dasselbe leisten wie ein menschliches Gehirn einschlieölich der Sinnes- und Handlungsorgane. Die technische Entwicklung zielt heute darauf, das menschliche Denken und Wahrnehmen zu simulieren und sie durch Robotertechnologie in Handlungsprototypen umzusetzen. Das ist in etwa das Programm der sogenannten 5. Generation von Computern. 3 Es kann dabei nicht darum gehen, die physiologischen Prozesse zu imitieren. Der Computer kann und wird nie ein isomorphes Abbild des Gehirns sein können. Damit stellen sich zwei Fragen: (1) Wieweit können Computer geistige Prozesse ausfuhren und inwieweit werden sie dies in Zukunft noch besser machen als Menschen — nicht bloß schneller und sicherer, (2) inwiefern werden Computer vielleicht ganz anderes als menschliche Gehirne leisten, werden sie eventuell auch ganz Neues erfinden können? Manchmal wird in diesem Sinne gefragt, ob Computer auch kreativ sein können. 4

Gerhard Frey

Reflections upon Turing’s analysis of the process of computation and its relation to AI

From today’s point of view, Turing — in his influential paper of 19361 — was concerned with grasping the epistemological concept of effectively computable functions within the frame of the then mathematical research. Turing talks (resp. writes) of computable numbers, yet already in the introduction to his paper he hints at a possible extension of his appraoch: “it is almost equally easy to define and investigate computable functions of an integral variable or a real computable variable, computable predicates and so forth.” [230, my emphasis]

Rainer P. Born

Und Sie Kommt Doch !

Über die Gewißheit zukünftiger künstlicher Intelligenz

Das Forschungsgebiet Artificial Intelligence hat variantenreiche Gegnerschaft. Wahrscheinlich ist dies durchaus ein Qualitätsmerkmal für eine aufstrebende Wissenschaft. Nur wer ernst genommen wird, hat Feinde. Trappl kategorisiert drei Gruppen von Mißbilligern: Revierverteidiger, Besorgte und Morgenstern-Gegner.1

Thomas Grechenig

Stellt Die KI-Forschung Den Kernbereich Der Informatik Dar

1. Es scheint, daß die KI-Forschung den Kernbereich der Informatik nicht darstellt. Denn die Informatik befaßt sich zwar mit der Entwicklung von Hard- und Software, aber die KI-Hard und -Software-Entwicklung bilden lediglich eine zu hoch eingeschätzte Teilentwicklung, ja sogar eine Randerscheinung der Informatik.

Rafael Capurro

Ethische und sozialphilosophische Aspekte der KI

Rechner und menschliche Gemeinschaft. Drei Capriccios

MARXSCHE THEMEN IM COMPUTERZEITALTER. — Durch die radikalen begrifflichen und gesellschaftlichen Veränderungen, die treffend unter der Bezeichnung Computerrevolution zusammengefaßt wurden, sind gewisse Grundanliegen von Marx wieder einmal interessant geworden; gleichzeitig sind sie aber in eine Perspektive gerückt, an die Marx selbst kaum gedacht hatte.

J. C. Nyiri

Ethische Fragen der “Künstlichen Intelligenz”

Seit es „Künstliche Intelligenz“ gibt (also jene Wissenschaft, die ihrem Selbstverständnis nach Computer befähigt, Dinge zu tun, die von einem Menschen „Intelligenz“ erfordern, sofern er dasselbe bzw. dasgleiche tun will1), wird darüber diskutiert, ob diese nur ein Hirngespinst jener ist, die daran arbeiten bzw. glauben, oder ob es doch möglich ist, Maschinen zu konstruieren, die als „intelligent“ im menschlichen Sinne gelten können. Wie ich andernorts in Anlehnung an Wittgenstein zu zeigen versucht habe2, geht es dabei um eine begriffliche Frage, d.h. darum, was man unter „Intelligenz“ versteht. Demnach ist es sinnlos, Computer im traditionellen Sinn des Wortes (d.h. in bezug auf die Lebensform unseres common sense) als „intelligent“ zu bezeichnen, weil dieser Begriff von „Intelligenz“ Bestandteil unserer Alltagssprache mit all ihrer Unwägbarkeit und Vagheit ist; die Bedeutung von ‘Intelligenz’ wird in diesem Kontext in Abgrenzung zu einer Reihe anderer Ausdrücke wie ‘Wissen’, ‘Fähigkeit’, ‘Kreativität’, ‘Dummheit’, ‘Erziehung’ usw. bestimmt. Insbesondere fehlt Computern aber ein „übriges Verhalten“, das eines unserer Kriterien für die Zuschreibung „innerer“ Vorgänge wie „Denken“ oder „Intelligenz“ im üblichen Sinne ist; Computer haben keinen Anteil am „Getriebe“ des menschlichen Lebens3.

Otto Neumaier

Künstliche Intelligenz und Systemtechnik

Das Problem der Künstlichen Intelligenz hat in jüngster Zeit in den verschiedensten Bereichen von Wissenschaft und Technik großes Aufsehen erregt. Es beschäftigt nicht nur Ingenieure und Kybernetiker, sondern auch Philosophen, Linguisten, Logiker, Psychologen, Soziologen und Wirtschaftswissenschaftler. Publikationen zu diesem Thema erscheinen immer häufiger nicht nur in der wissenschaftlichen Fachpresse, sondern auch in der philosophischen Literatur. Eine intensive Entwicklung der Arbeit in dieser neuen Richtung von Wissenschaft und Technik war Anfang der 70er Jahre zu verzeichnen. In dieser Zeit nahm sie lawinenartigen Charakter an: die Anzahl der Publikationen zu diesen Problemen wie auch der jährlichen internationalen und nationalen Konferenzen, der Projekte globaler und partieller Art u.a.m. stieg rapide an.

W. Gorochow

Artificial Intelligence and Decision Making

On the “morals” of artificial intelligence systems

In creating artificial intelligence applications its is of paramount importance to reconstruct the process of arriving at decisions. It is this process of making adequate and reasonable judgments that, in the final analysis, is constitutive of intelligent behaviour. Because of this fact, the key philosophical problems of AI are gnoseological in nature: access to memory, promptness of response and, in general, the ability to grasp and process information.

Alexander Krushanov

Das Metonym „KI“

Soziologische Anmerkungen zum Projekt der implementierten Theorie

Die Metonymie verwendet ein Wort in der Bedeutung eines anderen Wortes, das semantisch mit dem verwendeten Wort in einer realen Beziehung steht. Das hat für unser Thema zwei Implikationen. „Künstliche Intelligenz (KI)“ und „Artificial Intelligence (AI)“ stehen nicht in einem bloßen Umbenennungsverhältnis zueinander, etwa wie „Schwarzerd“ und „Melanchthon“. Vielmehr hat eine Bedeutungsverschiebung stattgefunden. Auf die heuristische Fruchtbarkeit dieser Bedeutungsverschiebung hat Karl Leidlmair hingewiesen; sie ist zentrales Thema dieses Workshops. Es handelt sich aber, zweitens, auch nicht bloß um eine metaphorische Redeweise. Anders als in der Metapher vollzieht sich die Bedeutungsverschiebung außerhalb der Ebene des Begriffsinhalts: Das zu Bezeichnende steht zu dem, durch dessen Name es bezeichnet wird, in einer realen, sei es zeitlichen, räumlichen, ursächlichen, logischen oder erfahrungsmäßigen Beziehung. Auf diesen Sachverhalt hat Heinz Hülsmann aufmerksam gemacht. Und vor allem hat er, indem er ihre realen Entsprechungen in der gegenwärtigen gesellschaftlichen Dynamik aufgespürt hat, die Metonymie als sozialwissenschaftliche Zugriffsmöglichkeit, als Instrument der Analyse fruchtbar gemacht. Es geht ihm darum, zu zeigen, daß die Realitat, wie vermittelt auch immer, in der Sprache und in den Zeichen präsent ist. Es geht ferner darum, zu zeigen, daß die geschichtliche Genesis solcher Zeichen mit der historisch je spezifischen Formung und Ausprägung von Sozialität zusammenfällt, daß die Vermittlung der Zeichen und die in den Zeichen wirksame Vermittlung und Vermitteltheit selber eine soziale ist, die aus dem Leben und Arbeiten, aus dem geschichtlichen Gang, dem Denken und Handeln der sozialen Gebilde, ihren Figurationen, hervorgebracht wird.

Arno Bammé
Weitere Informationen