Der Begriff Informatik (engl. computer science) lässt sich auf vielfältige Weise mit unterschiedlicher Tiefe und Breite definieren. In diesem Kapitel wird der Begriff grundlegend bestimmt, um eine gemeinsames Verständnis zu entwickeln.
Das erste Kapitel gibt eine Einführung in das Fachgebiet „Wirtschaftsinformatik“, die sich mit der fachlichen Abgrenzung, den eröffneten beruflichen Perspektiven und der geschichtlichen Entwicklung befasst. Zunächst werden in Abschn. 1.1 die Wirtschaftsinformatik in das übergreifende Fach „Informatik“ eingeordnet sowie Gegenstand und Ziele der Wirtschaftsinformatik beschrieben. Es folgt in Abschn. 1.2 eine Darstellung der Tätigkeitsfelder und zugehöriger Berufsbilder im Bereich der Wirtschaftsinformatik, wobei nach Unternehmen sowie Funktionen innerhalb der IT-Branche, außerhalb der IT-Branche (also IT-Anwendern) und in der Aus- und Weiterbildungsbranche unterschieden wird. Schließlich präsentiert Abschn. 1.3 eine Übersicht der geschichtlichen Entwicklung der Informationsverarbeitung, die einige aktuellere Trends einschließt.
Im Beitrag werden in der Zusammenschau von theoretischen Modellen für Lehrkräfteprofessionalität, pragmatisch orientierten Rahmenmodellen digitaler Kompetenzen und empirischen Befunden Bedingungsfaktoren auf Seiten der Lehrkräfte für (digitales) Lernen und Lehren von Mathematik herausgearbeitet. An Beispielen wird dabei illustriert, wie die verschiedenen Elemente digitaler Professionalität zusammenwirken müssen, um typische Anforderungen des Mathematikunterrichtens zu bewältigen. Es zeigt sich, dass bestehende fachunspezifische Modelle integriert und konkretisiert werden müssen, um zu einem gemeinsamen Verständnis „digitaler Professionalität“ für Mathematiklehrkräfte zu gelangen. Der Beitrag plädiert dafür, sich dieser Herausforderung im Anschluss an die vorliegenden Arbeiten interdisziplinär anzunehmen.
Anje Ostermann, Mina Ghomi, Andreas Mühling, Anke Lindmeier
Ausgehend von der Frage „Was ist Wirtschaftsinformatik?“ werden Gegenstand, Ziele und Aufgaben der Wirtschaftsinformatik erläutert sowie Chancen, aber auch mögliche Risiken vorgestellt.
Peter Weber, Roland Gabriel, Thomas Lux, Katharina Menke
Engineerings, wobei in dem Kapitel sowohl der allgemeine Phasenansatz als auch agile Ansätze der Softwareentwicklung (Extreme Programming (XP) und Scrum) behandelt werden. Darüber hinaus werden Grundlagen der objektorientierten Softwareentwicklung sowie Ansätze und Probleme der Aufwandsschätzung vorgestellt. Da diese Gestaltungsaufgaben i. d. R. im Rahmen eines Projektes durchgeführt werden, folgt abschließend eine kurze Einführung in das Projektmanagement.
Peter Weber, Roland Gabriel, Thomas Lux, Katharina Menke
Günter Hotz hat im Laufe der vielen Jahre, in denen er an der Universität des Saarlandes als akademischer Lehrer tätig war, insgesamt 54 „Kinder“ zur Promotion, manche von ihnen dann auch zur Habilitation geführt. Nachfolgend sind sie mit ihrem Promotions- und, wo zutreffend, Habilitationsthema aufgelistet, bevor in den nachfolgenden Kapiteln von jedem einzelnen Doktorkind (akademischer) Lebenslauf folgen, bei einigen auch mit einem mehr oder weniger umfangreichen Beitrag weiter ergänzt.
Claus-Peter Schnorr, Hermann Walter, Volker Claus, Wolffried Stucky, Hans-Peter Blatt, Otto Spaniol, Gerd Kaufholz, Rainer Kemp, Wolfgang Paul, Eberhard Bertsch, Herbert Kopp, Manfred Stadel, Ulrich Schmitt, Wolfgang Weidner, Wolfgang Gräber, Dung Huynh, Rockford Ross, Michael Breder, Klaus Estenfeld, Axel Pink, Jan Messerschmidt, Hans Simon, Bernd Becker, Rolf Strothmann, Peter Auler, Johannes Arz, Paul Molitor, Reiner Kolla, Thomas Kretschmer, Franz Josef Schmitt, Ursula Becker, Reiner Marzinkewitsch, Hans Georg Osthof, Uwe Sparmann, Jürgen Sellen, Joachim Hartmann, Yonggang Guan, Gisela Sparmann, Hongzhong Wu, Elmar Schömer, Thomas Burch, Björn Schieffer, Christoph Scholl, Frank Follert, Thomas Chadzelek, Frank Schulz, Jens Eckstein, Matthias Buck, Bin Zhu, Alexander Gamkrelidze, Jörg Sauer, Timo von Oertzen, Tobias Gärtner, Christopher Durst
Menschen verwenden Sprachen, um miteinander zu kommunizieren. Hierfur bilden sie grammatikalisch (syntaktisch) korrekte Satze, die eine Bedeutung (Semantik) besitzen. Auf diese Weise findet Informationsubertragung/-austausch statt.
Weg zum/zur Maschinenbau-Ingenieur*in - Welche Kompetenzen braucht ein*e Maschinenbau-Ingenieur*in? - Wie ist die Struktur der Ausbildung zum Bachelor- und Master im Fach Maschinenbau? - Überblick über Fakten und studienrelevante Grundbegriffe (z. B. Module, Leistungsnachweise, Lehrveranstaltungen, Praktika etc.) als Basisinformation für Studienanfänger - Fachsprachliche Schwerpunkte: Nominalisierung, Komposita, Fragesatztypen (Satz- und Wortfrage).
Die Digitalisierung unserer Gesellschaft verändert die Art und Weise, wie wir konsumieren, arbeiten, leben und miteinander kommunizieren. Ziel dieses Kapitels ist es, darzulegen, welche Auswirkungen die wachsende Digitalisierung auf Unternehmen hat und welche Implikationen sich daraus ergeben. Des Weiteren wird erläutert, wie sich die Digitalisierung auf die Wirtschaftsinformatik als wissenschaftliche Disziplin auswirkt. Im Kern wird die Nutzer-, Nutzungs- und Nutzenorientierung eingeführt, die den digitalen Nutzer in den Mittelpunkt des Erkenntnisinteresses stellt. Ausgehend von der Orientierung am digitalen Nutzer und seinen Bedürfnissen müssen organisatorische Prozesse sowie Angebote in Form von Informationssystemen, Produkten und Dienstleistungen so gestaltet werden, dass sie diese Bedürfnisse bestmöglich erfüllen. Durch die Nutzung dieser neuen Systeme und Angebote wird der angestrebte Nutzen sowohl für den digitalen Nutzer und das Unternehmen als auch die Gesellschaft erreicht. Ausgehend von dieser Perspektive wird das sogenannte „House of Digital Business“ vorgestellt, das Unternehmen dabei unterstützen kann, die Herausforderungen der Digitalisierung zu bewältigen. Das Haus dient weiterhin als strukturgebendes Element für das gesamte Lehrbuch.
Damit sind wir am Ende dieses Buchs angelangt – aber natürlich nicht am Ende der Informatik. Zum Abschluss können Sie exemplarisch in vier aktuelle Forschungsthemen eintauchen, die vielfach diskutiert werden und weitreichende Auswirkungen haben können, also nicht nur technologische Fortschritte darstellen, sondern auch gesellschaftliche Veränderungen nach sich ziehen: Deep Learning, Blockchains, Quantum Computing und Immersive Reality. Es geht dabei um lernende Informatiksysteme, um demokratische Datenbanken, um neuartige Rechnertechnologien und um sich wandelnde Interaktionsmöglichkeiten mit Computersystemen. Vorher werfen wir noch einmal einen Blick zurück auf die Themen, die wir gestreift haben, und schauen uns an, wie diese zusammenhängen und die Fachdisziplin der Informatik aufspannen.
This chapter describes a model-based framework for systematic round-trip engineering of continuously evolving software product line implementations. The product-line architecture consists of a feature diagram as configuration model and a preprocessor-based C code implementation comprising all software variants. As quality-assurance methodology, we consider white-box testing, where test suites are automatically generated for product-line implementations with respect to a given set of test goals to be covered on all derivable software variants. The approach employs techniques from meta-modelling and model differencing to uniformly reason about product-line artefact changes and their potential impact on every possible kind of artefact consistency. The approach further combines model differencing, model merging, and regression testing to systematically co-evolve product-line engineering and quality-assurance artefacts accordingly. The approach is illustrated by application scenarios concerning the xPPU case study.
Malte Lochau, Dennis Reuling, Johannes Bürdek, Timo Kehrer, Sascha Lity, Andy Schürr, Udo Kelter
Successful system evolution is dependent on knowledge about the system itself, its past and its present, as well as the environment of the system. This chapter presents several approaches to automate the acquisition of knowledge about the system’s past, for example past evolution steps, and its present, for example models of its behaviour. Based on these results, further approaches support the validation and verification of evolution steps, as well as the recommendation of evolutions to the system, as well as similar systems. The approaches are illustrated using the joint automation production system case study, the Pick and Place Unit (PPU) and Extended Pick and Place Unit (xPPU).
Stefan Kögel, Matthias Tichy, Abhishek Chakraborty, Alexander Fay, Birgit Vogel-Heuser, Christopher Haubeck, Gabriele Taentzer, Timo Kehrer, Jan Ladiges, Lars Grunske, Mattias Ulbrich, Safa Bougouffa, Sinem Getir, Suhyun Cha, Udo Kelter, Winfried Lamersdorf, Kiana Busch, Robert Heinrich, Sandro Koch
Die Erstellung von Studienarbeiten erfolgt nicht isoliert und alleinstehend, sondern eingebettet in ein Fachgebiet. Daher ist die für das jeweilige Thema relevante FachliteraturFachliteratur
zu finden und zu nutzen, um eine Studienarbeit in ihr Fachgebiet einzubetten und vorhandenes Fachwissen zu nutzen. Zugleich eröffnet die Fachliteratur den Zugang zum Thema einer Studienarbeit, indem die Studierenden die relevante Fachliteratur finden, sichten, auswerten und dann für ihr Thema nutzen. Für die Recherche von Fachliteratur steht eine Reihe von Möglichkeiten zur Verfügung. Dann sind alle Fachquellen, die bei der Erstellung einer Studienarbeit verwendet werden, geeignet in der Arbeit anzugeben (zu „zitieren“), damit die Gedanken, Methoden und Ergebnisse Dritter klar erkennbar sind und damit die Verankerung der Studienarbeit in den bisherigen Stand des Wissens im Fachgebiet deutlich wird. Für das Zitieren von Fachquellen sind sogenannte Zitierrichtlinien zu beachten, die Form und Aussehen von Literaturangaben vorschreiben. Für viele verschiedene Typen von Fachquellen gelten bestimme Regeln, deren Einhaltung – letztlich – kein großes Problem darstellt.
Ein Computer bedarf der Programmierung, um sinnvoll eingesetzt werden zu können. Möchte man ihn zur Lösung bestimmter Probleme verwenden, wie etwa das Sortieren von Daten oder die Multiplikation von Matrizen, so muss die Programmierung eine Vorschrift beschreiben, die festlegt, in welcher Reihenfolge der Computer welche Aktionen durchzuführen hat, damit letztlich die gesuchte Lösung erzeugt wird. Dabei ist es unsinnig, die Vorschrift für eine einzige Eingabe maßzuschneidern.
Durch die Erfindung des Computers hat sich das Leben in verschiedenen Bereichen stark verändert: Mobilität und Vernetzung halten Einzug in das tägliche Leben. Um am Puls der Zeit zu bleiben, ist es notwendig auch das bis jetzt nahezu unveränderte Bildungssystem in die Zukunft zu tragen. Ob der zahlreichen politischen Diskussionen konnte man sich bis heute nicht flächendeckend darauf einigen, Informatik als eines der grundlegenden Fächer im Schulbetrieb zu verankern. Ziel der Bildungsinformatik ist es ein Bewusstsein für die notwendigen Kompetenzen der informatischen und medialen Belange der Gesellschaft der Zukunft zu schaffen. Am Beispiel eines Learning-Management-Systems sollen die damit einhergehenden technischen und nicht-technischen Herausforderungen beleuchtet werden um damit auch die Notwendigkeit und Bedeutung der Bildungsinformatik zu verdeutlichen.
Martin Ebner, Philipp Leitner, Markus Ebner, Behnam Taraghi, Maria Grandl
Informatik ist die Wissenschaft der maschinellen Informationsverarbeitung. In der Informatik geht es darum, Informationen und Daten elektrisch festzuhalten, zu verarbeiten und zu übermitteln. Historisch hat sich die Informatik aus der Mathematik und der Physik entwickelt. Auf der anderen Seite entstand die Informatik durch die Entwicklung von Rechenanlagen aus der Elektrotechnik und der Nachrichtentechnik.
Mit der aktuellen Entwicklung in Naturwissenschaft und Technik ist das Fach Informatik dermaßen „auf dem Vormarsch“, dass man schon lange nicht mehr von der Informatik sprechen kann; vielmehr gibt es zunehmende Spezialisierungen in der theoretischen, praktischen, technischen und angewandten Informatik. Eine gezielt adressatenspezifische Materialauswahl ist im Rahmen eines Sprachlehrbuchs, das für DaF-Lernende aus ingenieurwissenschaftlichen Fächern generell konzipiert ist, nicht zu leisten, deshalb haben wir uns auf allgemeine Basisinformationen konzentriert.Bekanntlich wird gerade im Bereich der Informatik vorwiegend in englischer Sprache kommuniziert; die Fachliteratur – vor allem in Form von Fachzeitschriften – erscheint größtenteils auf Englisch. Trotzdem halten wir es für sehr angebracht, dass für Techniker und angehende Wissenschaftler, die mit deutschsprachigen Partnern kommunizieren wollen, die Möglichkeit besteht, sich eine Verständigungsbasis in Deutsch anzueignen. Deshalb haben wir Texte zusammengestellt, welche die grundlegende Fachlexik zur Einteilung des Fachs Informatik, Datenstrukturierung, Computeraufbau und -architektur sowie viele technische Bezeichnungen darbieten. Bestimmte Programmiersprachen kommen dabei nicht vor; sie sind einerseits zu speziell und andererseits kein DaF-Thema mehr.
This paper explores the question of how fast modern block ciphers can be realized as machine-independent Java implementations. The ciphers we considered include well-known proven ones such as DES and IDEA and recent candidates for the proposed DES-successor AES.
Eine Möglichkeit, sich dem Begriff Informatik zu nähern, sind typische Ausdrücke, die mit Informatik im Zusammenhang stehen: Information, Informationssysteme, Computer, EDV, Rechner, Programmierung, Software, Hardware, Internet, Textverarbeitung und Computerspiele. Im Zentrum dieser Ausdrücke stehen die Begriffe „Information“ und „Computer“. Das Kapitel definiert den Begriff der Informatik und beschreibt wesentliche Teilgebiete der Informatik.
Daten als der universelle Rohstoff des digitalen Zeitalters erfordern für eine unternehmerisch wertschöpfende und innovative Nutzung entsprechende Algorithmen. Kap. 3 zeigte bereits überblickartig die Grundlagen, Zusammenhänge und Auswirkungen der Dominanz von Software im digitalen Zeitalter, auch unter dem Stichwort der „Algorithm Economy“. Ausreichend verfügbare Rechen- und Speicherkapazitäten bzw. allgemein verfügbare Infrastruktur-Lösungen, die breite Vielfalt mobiler Lösungsansätze und die zunehmende Maschine-zu-Maschine-Kommunikation des Internets der Dinge bilden hierbei die technologische Basis. Eine erfolgreiche digitale Transformation und damit die unternehmerische Gestaltung im digitalen Zeitalter indes erfordert die Entwicklung und Anwendung von Algorithmen zur Nutzbarmachung der vielen Daten und Informationen im und außerhalb des Unternehmens (vgl. Abb. 6.1). Nur so lassen sich die vielfältigen Einsatzbereiche von Big Data für die verschiedenen Prognose- und Entscheidungsaufgaben im Unternehmen realisieren.
In diesem Kapitel beschäftigen wir uns weiter mit der Klasse der regulären Sprachen. Während wir in Kapitel 2 nur akzeptierende Konzepte für diese Klasse, nämlich Varianten von endlichen Automaten, betrachtet haben, führen wir jetzt zwei weitere Konzepte zur Beschreibung dieser Sprachklasse ein: reguläre Ausdrücke und Typ-3-Grammatiken.
Nachdem wir uns in den vorangegangenen Kapiteln mit Berechenbarkeit beschäftigt und im letzten Kapitel festgestellt haben, dass es nicht entscheidbare Mengen, d.h. nicht berechenbare Probleme gibt, werden wir uns in diesem Kapitel mit berechenbaren Problemen befassen, und zwar mit dem Aufwand für ihre Berechnung.
Bereits die Entstehungsgeschichte (Etymologie) des Wortes Algorithmus ist sehr interessant. Im Jahre 773 kam an den Hof des Kalifen al-Mansur in Bagdad ein Inder, der die im 7. Jahrhundert n. Chr. entstandene Himmelskunde („Siddhanta“) seines Landsmannes Brahmagupta mit sich führte.
Jochen Ziegenbalg, Oliver Ziegenbalg, Bernd Ziegenbalg
Das folgende Kapitel grenzt zunächst reflektive und formative Messmodelle voneinander ab, geht auf Aspekte der Reliabilität und Validität ein und stellt die personen- und fachbereichs-bezogenen Messmodelle vor (Kapitel 6.1). Danach werden Details der Stichprobengestaltung, der Datenerhebung und der Stichprobe selbst beschrieben (Kapitel 6.2). Der letzte Abschnitt erörtert zunächst wesentliche Grundzüge der Hierarchisch Linearen Modellierung, um anschließend den Ablauf der Datenanalyse in dieser Studie zu beschreiben (Kapitel 6.3).
Sind Sie zu dem Schluss gekommen, Mathematik könnte genau das Richtige für Sie sein? Dann gilt es „nur“ noch zu entscheiden, an welcher Hochschule Sie welche Studienrichtung einschlagen wollen! Dem Studienanfänger heute bieten sich nämlich neben dem klassischen Studiengang Mathematik Diplom zahlreiche Alternativen. Da es für das Fach Mathematik meist keine Aufnahmebeschränkungen gibt, hat man zudem bei der Entscheidung für einen Studienort die Qual der Wahl. Sie finden in diesem Kapitel eine Übersicht über die verschiedenen Studienmöglichkeiten, einen tabellarischen Überblick über die deutschsprachige Hochschullandschaft sowie zahlreiche mögliche Entscheidungskriterien für Ihre Hochschulwahl.
sind betriebswirtschaftliche und volkswirtschaftliche Problemstellungen. Für die Beschreibung diesbezüglich grundlegender Zusammenhänge kann die Wirtschaftsinformatik auf die namensgebenden Wirtschaftswissenschaften zurückgreifen. Sie ist darauf spezialisiert, die Informationsflüsse und die daraus resultierenden Kommunikationsbeziehungen im wirtschaftlichen Kontext zu analysieren, zu abstrahieren, zu modellieren, zu optimieren und rechentechnisch zu realisieren.
Weiter auf der Erfolgsspur — oder in die Sackgasse?
Die Wirtschaftsinformatik (WI) hat sich in ihre 40-jährigen Geschichte nichte nicht nur zu einer eigenständigen Disziplin, sondern auch zu einem Erfolgsmodell im Spannungsfeld ihrer Mutterdisziplinen, den Wirtschaftswissenschaften und der Informatik, entwickelt.
Unter „Design“ oder „Gestaltung“ verstehen wir Entwürfe für das Aussehen und die Funktionalität von Produkten in der Architektur, von Verpackungen, von Digital- und Printmedien sowie dazugehörender Logos, Animationen und Videos. Produkte, Formen oder Layouts werden gestaltet, Designer geben privaten oder industriellen Dingen eine funktionale und ästhetische Form.
Der moderne Begriff „Design“ kommt aus dem englischen Sprachraum. Ursprünglich ist das Wort aus dem Lateinischen abgeleitet vom Wort „designare“, was so viel bedeutet wie bezeichnen, planen, anordnen, darstellen. Ende des 17. Jahrhunderts setzte sich von Frankreich kommend der Begriff „designer“ durch. Der moderne Designbegriff wurde aus diesem Wort abgeleitet und ist heute in vielen Sprachen der Welt zu finden.
Joachim Böhringer, Dipl.-Wirt.-Ing., Peter Bühler, Dipl.-Ing., Patrick Schlaich, Professor, Dominik Sinner, Dipl.-Wirt.-Ing. (FH)
Model persistence has always been one of the major interests of the model-driven development community. In this context, Persistent Meta-Modeling Systems (PMMS) have been proposed as database environments dedicated to meta-modeling and model management. Yet, if existing PMMS store meta-models, models and instances, they provide mechanisms that are sometimes insufficient to accomplish some advanced model management tasks like model transformation or model analysis. In this paper we validate the work achieved in [5] by exploiting the support of user-defined operations in PMMS in order to perform model transformations and model analysis.
Youness Bazhar, Yassine Ouhammou, Yamine Aït-Ameur, Emmanuel Grolleau, Stéphane Jean
Spatial changes plays a fundamental role in modeling the spatio-temporal relations and spatio-temporal or motion event predictions. These predictions can be made through the conceptual neighborhood graph using the common sense continuity. This paper investigates that the extension in the temporal interval can effect the whole spatio-temporal relation and motion events. Spatio-temporal predicates form a unit of a motion event. We use the point temporal logic to extend the spatial predicates into the spatio-temporal or motion event predicates.
Video text provides important clues for semantic-based video analysis, indexing and retrieval. And text tracking is performed to locate specific text information across video frames and enhance text segmentation and recognition over time. This paper presents a multilingual video text tracking algorithm based on the extraction and tracking of Scale Invariant Feature Transform (SIFT) features description through video frames. SIFT features are extracted from video frames to correspond the region of interests across frames. Meanwhile, a global matching method using geometric constraint is proposed to decrease false matches, which effectively improves the accuracy and stability of text tracking results. Based on the correct matches, the motion of text is estimated in adjacent frames and a match score of text is calculated to determine Text Change Boundary (TCB). Experimental results on a large number of video frames show that the proposed text tracking algorithm is robust to different text forms, including multilingual captions, credits, scene texts with shift, rotation and scale change, under complex backgrounds and light changing.
In this paper we discuss requirements for peer-to-peer (P2P) benchmarking, and we present two exemplary approaches to benchmarks for Distributed Hashtables (DHT) and P2P gaming overlays. We point out the characteristics of benchmarks for P2P systems, focusing on the challenges compared to conventional benchmarks. The two benchmarks for very different types of P2P systems are designed applying a common methodology. This includes the definition of the system under test (SUT) and particularly its interfaces, the workloads and metrics. A set of common P2P quality metrics helps to achieve a comprehensive selection of workloads and metrics for each scenario.
Max Lehn, Tonio Triebel, Christian Gross, Dominik Stingl, Karsten Saller, Wolfgang Effelsberg, Alexandra Kovacevic, Ralf Steinmetz
Text or character detection in images or videos is a challenging problem to achieve video contents retrieval. In this paper work we propose to improved VTDAR (Video Text Detection and Recognition) Template Matching algorithm that applied for the automatic extraction of text from image and video frames. Video Optical Character Recognition using template matching is a system model that is useful to recognize the character, upper, lower alphabet, digits& special character by comparing two images of the alphabet. The objectives of this system model are to develop a model for the Video Text Detection and Recognition system and to implement the template matching algorithm in developing the system model. The template matching techniques are more sensitive to font and size variations of the characters than the feature classification methods. This system tested the 50 videos with 1250 video key-frames and text line 1530. In this system 92.15% of the Character gets recognized successfully using Texture-based approaches to automatic detection, segmentation and recognition of visual text occurrences in images and video frames.
Bharatratna P. Gaikwad, Ramesh R. Manza, Ganesh R. Manza
Seit einiger Zeit ist das Phänomen zu beobachten, dass virtuelle und reale Welt immer stärker miteinander verschmelzen. Ausgangspunkt dieser Entwicklung war die explosionsartige Verbreitung des Internets und des WWW in allen Bereichen des Lebens, die verstärkt wird durch die allgegenwärtige Verfügbarkeit von Rechnern, die immer kleiner, aber auch immer leistungs- und kommunikationsfähiger werden. Notebooks und Personal Digital Assistants bilden nur den Anfang; die Informatik befasst sich in Gebieten wie Ubiquitous Computing oder „Drahtlose Sensornetze“ inzwischen mit sehr viel durchdringenderen Technologien, die gleichsam in die reale Welt eingewoben werden und in ihr verschwinden. Mussten früher viele Benutzer einen Computer teilen, so stand spätestens Anfang der 90er Jahre jedem Benutzer ein eigener Rechner zur Verfügung; heute ist jeder Mensch zumindest in den Industrienationen von einer Vielzahl von Prozessoren umgeben, ohne diese überhaupt noch als solche wahrzunehmen.
Several large companies have conducted initiatives for systematic learning from experience in software engineering. In the international Software Experience Center (SEC), for example, five companies exchanged experiences and collaborated in building experience exchange mechanisms to be used within each company. Many insights were gained and lessons were learned over the years, among them: (1) Written and documented experiences are the exception rather than the rule. (2) Although not documented in detail or controlled by a process, experience needs guidance and support in order to reach the designated person or group. The “flow” of experience must be kept in mind. (3) Experience is a delicate material, and any avoidable effort or threshold to participate in systematic experience exploitation may endanger stakeholder participation and success. (4) Tools can effectively be built to support orderly flow of experience, but they must be optimized for cognitive support of their users. These lessons learned from supporting experience exploitation can be applied to software projects more generally: Requirements, rationale, and other information flowing through a software project resemble experience with respect to the above-mentioned characteristics: They are often communicated orally rather than in a document. There are diverse processes and practices designed to channel information flow. Early and vague requirements must be handled with care, and tools need to be optimized to reduce cognitive barriers and thresholds, or they will not be accepted. A focus on information and experience flow takes the above-mentioned lessons into account. Information flows within one project, while experience often cuts across several projects. Requirements of one project are useful only in that same project. Experience in designing a product, however, may be reused in subsequent projects. Information and experience flows need to be modelled explicitly. A simple notation is proposed to capture just the essence of flowing information. What may seem like a subtle shift from processes to flows offers a new perspective: Based on those models, dedicated techniques and tools can be developed for analysing and for improving the flows. A wide range of current trends in software engineering can benefit from a better understanding of – and support for – appropriate information flow: Interfaces to the subcontractors, distributed and collaborative teams, Wiki webs, and a variety of new communication channels in global software engineering call for a focus on information flow.
Nachdem ein erstes Verständnis für das Thema einer Studienarbeit entwickelt worden ist, gilt es, einen Ausgangspunkt für die Literaturrecherche zu finden. Diese Situation ist besonders einfach, wenn zum Thema einige Literaturhinweise als Einstiegshilfe mitgeliefert werden. Vorausgesetzt sei dabei, es handelt dabei nicht um eine relativ wahllose und umfangreiche Zusammenstellung von Literatur, die vielleicht relevant sein könnte, sondern um qualifizierte Hinweise, die mit großer Wahrscheinlichkeit relevant sind. Diese Voraussetzungen sind offensichtlich nur erfüllt, wenn der Hinweisgeber reich an Kenntnissen zum Thema und reich an Sorgfalt und Mühe bei der Beobachtung der Fachliteratur ist.
Nachdem ein erstes Verständnis für das Thema einer Studienarbeit entwickelt worden ist, gilt es, einen Ausgangspunkt für die Literaturrecherche zu finden. Diese Situation ist besonders einfach, wenn zum Thema einige Literaturhinweise als Einstiegshilfe mitgeliefert werden. Vorausgesetzt sei dabei, es handelt dabei nicht um eine relativ wahllose und umfangreiche Zusammenstellung von Literatur, die vielleicht relevant sein könnte, sondern um qualifizierte Hinweise, die mit großer Wahrscheinlichkeit relevant sind. Diese Voraussetzungen sind offensichtlich nur erfüllt, wenn der Hinweisgeber reich an Kenntnissen zum Thema und reich an Sorgfalt und Mühe bei der Beobachtung der Fachliteratur ist.
Since the last decade reputation management has been examined as a possible foundation for trust establishment and trust dissemination in distributed artificial intelligence. While the systems are distributed the reputation management systems are in most cases centralized. This paper describes the implementation of the ReGreT approach to trust and reputation management in Multi-Agent Systems in a decentralized environment, where the services which provide reputation management are also distributed.
In der Baukunst, Malerei, Musik und Literatur hat die Entwicklung im 20. Jh. eine derartige Fülle und Vielfalt der Ausprägungen hervorgebracht, dass sie hier nur selektiv und in sehr großen Zügen beschrieben werden kann. Auch aus der kaum noch überschaubaren Zahl hervorragender Künstler und Literaten kann hier nur eine kleine Auswahl erwähnt werden. Insbesondere können auch die vielfältigen Entwicklungen in Afrika, Amerika, Asien und Australien kaum berücksichtigt werden. In all diesen Entwicklungen steht die Mathematik naturgemäß in erster Linie in der Architektur im Hintergrund, in gewissem Maße aber auch in der Malerei und in der Musik, kaum jedoch in der Literatur. Es gibt jedoch eine große Zahl literarischer Darstellung von Problemen in der Mathematik, z.B.
in dem hier genannten Jahrzehnt waren Dr. Volker Hauff, von Februar 1978 bis November 1980, Dr. Andreas von Bülow, vom November 1980 bis Oktober 1982, und Dr. Heinz Riesenhuber, von Oktober 1982 bis Januar 1993.
Most of the current practice of pattern matching tools is oriented towards finding efficient ways to compare sequences. This is useful but insufficient: as the knowledge and understanding of some functional or structural aspects of living systems improve, analysts in molecular biology progressively shift from mere classification tasks to modeling tasks. People need to be able to express global sequence architectures and check various hypotheses on the way their sequences are structured. It appears necessary to offer generic tools for this task, allowing to build more expressive models of biological sequence families, on the basis of their content and structure.
This article introduces Logol, a new application designed to achieve pattern matching in possibly large sequences with customized biological patterns. Logol consists in both a language for describing patterns, and the associated parser for effective pattern search in sequences (RNA, DNA or protein) with such patterns. The Logol language, based on an high level grammatical formalism, allows to express flexible patterns (with mispairings and indels) composed of both sequential elements (such as motifs) and structural elements (such as repeats or pseudoknots). Its expressive power is presented through an application using the main components of the language : the identification of -1 programmed ribosomal frameshifting (PRF) events in messenger RNA sequences.
Logol allows the design of sophisticated patterns, and their search in large nucleic or amino acid sequences. It is available on the GenOuest bioinformatics platform at
http://logol.genouest.org
. The core application is a command-line application, available for different operating systems. The Logol suite also includes interfaces, e.g. an interface for graphically drawing the pattern.
Catherine Belleannée, Olivier Sallou, Jacques Nicolas
Probabilistic conditionals are a powerful means of representing commonsense and expert knowledge. By viewing probabilistic conditionals as an institution, we obtain a formalization of probabilistic conditionals as a logical system. Using the framework of institutions, we phrase a general representation problem that is closely related to the selection of preferred models. The problem of discovering probabilistic conditionals from data can be seen as an instance of the inverse representation problem, thereby considering knowledge discovery as an operation inverse to inductive knowledge representation. These concepts are illustrated using the well-known probabilistic principle of maximum entropy for which we sketch an approach to solve the inverse representation problem.
Despite of their advertisement as task independent representations, the reuse of ontologies in different contexts is difficult. An explanation for this is that when developing an ontology, a choice is made with respect to what aspects of the world are relevant. In this paper we deal with the problem of reusing ontologies in a context where only parts of the originally encoded aspects are relevant. We propose the notion of a viewpoint on an ontology in terms of a subset of the complete representation vocabulary that is relevant in a certain context. We present an approach of implementing different viewpoints in terms of an approximate subsumption operator that only cares about a subset of the vocabulary. We discuss the formal properties of subsumption with respect to a subset of the vocabulary and show how these properties can be used to efficiently compute different viewpoints on the basis of maximal sub-vocabularies that support subsumption between concept pairs.
Dieses Kapitel gibt zuerst einen kurzen historischen Überblick über „Reasoning“, d. h. Schließen, Wissensrepräsentation und „künstliche Intelligenz“. Der Hauptteil geht auf einige „Reasoning“-Mechanismen und -Konzepte, die im Semantic Web eine Rolle spielen, ein und zeigt, wie dieses „Reasoning“ — unauffällig — in den Konzepten des Semantic Web zur Beschreibung von Wissensbasen enthalten ist. Weiterhin werden Reasoning-Mechanismen umrissen, die dem Zusammenspiel verschiedener Knoten im Semantic Web dienen, und ein kurzes Fazit gezogen.
The aim of this chapter is to give a survey of testing relations for probabilistic systems. We summarize the relevant material on probabilistic extensions of the work of De Nicola and Hennessy [dNH84] who defined implementation relations for nondeterministic processes based on a notion of testing (see also Chapter 5). We mainly concentrate on the relative expressive power of the different preorders. All presented relations are primarily of theoretical interest and to the best of our knowledge their usefulness in practical applications has not been shown yet.
Compositionality plays an important role in designing reactive systems as it allows one to compose/decompose a complex system from/to several simpler components. Generally speaking, it is hard to design a complex system in a logical frame in a compositional way because it is difficult to find a connection between the structure of a system to be developed and that of its specification given by the logic. In this paper, we investigate the compositionality of the Fixpoint Logic with Chop (FLC for short). To this end, we extend FLC with the nondeterministic choice “+” (FLC
+
for the extension) and then establish a correspondence between the logic and the basic process algebra with deadlock and termination (abbreviated BPA
$^{\epsilon}_{\delta}$
). Subsequently, we show that the choice “+” is definable in FLC.
As an application of the compositionality of FLC, an algorithm is given to construct characteristic formulae of BPA
$^{\epsilon}_{\delta}$
up to strong bisimulation directly from the syntax of processes in a compositional manner.
We present an overview on the AT(x) approach which is capable of automatically analyzing programs with respect to given tests and a reference solution. In the context of small homework assignments with precisely describable tasks, AT(P), a Prolog instance of the general AT(x) framework, is able to find many of the errors usually made by students and to communicate them in a manner understandable for beginners in Prolog programming. The system is being used in distance education where direct communication between students and tutors is most of the time not possible.
We investigate the online exploration problem of a short-sighted mobile robot moving in an unknown cellular room without obstacles. The robot has a very limited sensor; it can determine only which of the four cells adjacent to its current position are free and which are blocked, i.e., unaccessible for the robot. Therefore, the robot must enter a cell in order to explore it. The robot has to visit each cell and to return to the start. Our interest is in a short exploration tour, i.e., in keeping the number of multiple cell visits small. For abitrary environments without holes we provide a strategy producing tours of length
$S \leq C + \frac{1}{2} E -- 3$
, where
C
denotes the number of cells – the area – , and
E
denotes the number of boundary edges – the perimeter – of the given environment. Further, we show that our strategy is competitive with a factor of
$\frac43$
, and give a lower bound of
$\frac76$
for our problem. This leaves a gap of only
$\frac16$
between the lower and the upper bound.
Christian Icking, Tom Kamphans, Rolf Klein, Elmar Langetepe
assertions is investigated with respect to providing an interpretation for conditionals and defaults. We consider theories consisting essentially of monadic subsumption statements.For every such theory there is an associated
domain of information states
ordered by a
specialization relation
. We show how to naturally interpret
intuitionistic conditionals
in this information domain. Moreover, we study several ways to cope with
defaults
. In particular, we adapt the approaches of Poole and Reiter to our framework.
We show how probabilistic logic and probabilistic conditional logic can be formalized in the framework of institutions, thereby supporting the study of structural properties of both syntax and semantics of these logics. By using the notions of institution morphism and institution embedding, the relationships between probabilistic propositional logic, probabilistic conditional logic, and the underlying two-valued propositional logic are investigated in detail, telling us, for instance, precisely how to interpret probabilistic conditionals as probabilistic facts or in a propositional setting and vice versa.
Sorting by Prefix Reversals, also known as Pancake Flipping, is the problem of transforming a given permutation into the identity permutation, where the only allowed operations are reversals of a prefix of the permutation. The problem complexity is still unknown, and no algorithm with an approximation ratio better than 3 is known. We present the first polynomial-time 2-approximation algorithm to solve this problem. Empirical tests suggest that the average performance is in fact better than 2.
A web modelling approach is proposed, which uses a task model of the business as underlying basis and exploits it for adequate modelling of web sites including user interaction. We argue that a variant of classical task models, which emphasizes task objects and task views, is specially well-suited to support a model-based development of web sites. Its concepts and its practical use are discussed.
Topological relationships between spatial objects in the two-dimensional space have been investigated for a long time in a number of disciplines like artificial intelligence, cognitive science, linguistics, and robotics. In the context of spatial databases and geographical information systems, as predicates they especially support the design of suitable query languages for spatial data retrieval and analysis. But so far, they have only been defined for simplified abstractions of spatial objects like continuous lines and simple regions. With the introduction of
complex spatial data types
in spatial data models and extensions of commercial database systems, an issue arises regarding the design, definition, and number of topological relationships operating on these complex types. This paper first introduces a formally defined, conceptual model of general and versatile spatial data types for
complex lines
and
complex regions
. Based on the well known 9-intersection model, it then formally determines the complete set of mutually exclusive topological relationships between complex lines and complex regions. Completeness and mutual exclusion are shown by a proof technique called
Supply chain design is a task that has to both be economically efficient and provide viable design results. Therefore, the demand placed on supply chain design is for modelling methods that rapidly and efficiently provide key performance indicators for the networks assessed to a desired level of granularity and to a sufficient degree of realism. Several such modelling methods exist that each divergently fulfils these requirements. Of special interest in automotive supply chain design are static scenario comparison and dynamic simulation. The former, because it is easy to comprehend and straightforward to apply; the latter, because it is so powerful and its results are so desirable. Integrating both methods leads to significant advantages when modelling during supply chain design. The combined approach taken provides quick and efficient evaluation of a large number of scenarios at a suitable level of granularity and provides a higher degree of realism than just applying a static scenario comparison. Static modelling provides an adequate initial assessment of supply chain design and reduces the number of scenarios to a set of viable networks. These are automatically transferred to a dynamic simulation where assessment at a detailed level of granularity and lower level of abstraction takes place. Thus, all possible network alternatives are assessed quickly. The user gains efficiency and speed, whilst having the best data and key performance indicators possible for decision-making.
Die Digitalisierung der Gesellschaft verändert die Art und Weise, wie wir konsumieren, arbeiten, leben und miteinander kommunizieren. Ziel dieses Kapitels ist es, darzulegen, welche Auswirkungen die wachsende Digitalisierung auf Unternehmen hat und welche Implikationen sich daraus ergeben. Des Weiteren wird erläutert, welche Auswirkungen die Digitalisierung auf die Wirtschaftsinformatik als wissenschaftliche Disziplin hat. Im Kern wird die Nutzer-, Nutzungs- und Nutzenorientierung eingeführt, die den digitalen Nutzer in den Mittelpunkt des Erkenntnisinteresses stellt. Ausgehend von der Orientierung am digitalen Nutzer und seinen Bedürfnissen müssen organisatorische Prozesse sowie Angebote in Form von Informationssystemen, Produkten und Dienstleistungen so gestaltet werden, dass sie diese Bedürfnisse bestmöglich erfüllen. Das führt dann zur Nutzung der Systeme oder Inanspruchnahme des Angebots, wodurch der angestrebte Nutzen sowohl für den digitalen Nutzer, das Unternehmen als auch die Gesellschaft erreicht wird. Aufbauend auf dieser Sichtweise wird das sogenannte „House of Digital Business“ vorgestellt, das Unternehmen dabei unterstützen kann, die Herausforderungen der Digitalisierung zu bewältigen. Das Haus dient weiterhin als strukturgebendes Element für das gesamte Lehrbuch.
In diesem Kapitel beschreiben wir den letzten Modellierungsschritt, der jedoch von wesentlicher Bedeutung für unser Vorgehen ist: Er stellt das Modell auf eine empirische Grundlage. Der in Kapitel 5 beschriebene Modellierungsprozess verfolgt (bisher) implizit einen Case-Study-Research-Ansatz (Yin, 2014): Wir entwickeln und evaluieren ein Modell, indem wir Teilergebnisse konstruktionsbegleitend anhand von Fallstudien empirisch validieren und zugleich an die Beobachtungen anpassen. Für unsere Zwecke können wir ein solches Vorgehen als vorteilhaft ansehen, weil das resultierende Modell zugleich anhand der Fallstudien empirisch validiert wird: Theorie und empirische Beobachtungen werden fest miteinander verknüpft (Eisenhardt, 1989, S. 547).
Eine Möglichkeit, sich dem Begriff Informatik zu nähern, sind typische Ausdrücke, die mit Informatik zu tun haben: Information, Informationssysteme, Computer, EDV, Rechner, Programmierung, Software, Hardware, Internet, Textverarbeitung, Computerspiele. Betrachtet man diese Begriffe, so stellt man fest, dass „Information“ und „Computer“ eine wesentliche Rolle spielen.
Informatik ist die Wissenschaft der maschinellen Informationsverarbeitung. In der Informatik geht es darum, Informationen und Daten elektrisch festzuhalten, zu verarbeiten und zu übermitteln. Historisch hat sich die Informatik aus der Mathematik und der Physik entwickelt. Auf der anderen Seite entstand die Informatik durch die Entwicklung von Rechenanlagen aus der Elektrotechnik und der Nachrichtentechnik.
Die Erstellung von Studienarbeiten erfolgt nicht isoliert und alleinstehend, sondern eingebettet in ein Fachgebiet. Daher ist die für das jeweilige Thema relevante Fachliteratur zu finden und zu nutzen, um eine Studienarbeit in ihr Fachgebiet einzubetten und vorhandenes Fachwissen zu nutzen. Zugleich eröffnet die Fachliteratur den Zugang zum Thema einer Studienarbeit, indem die Studierenden die relevante Fachliteratur finden, sichten, auswerten und dann für ihr Thema nutzen. Für die Recherche von Fachliteratur steht eine Reihe von Möglichkeiten zur Verfügung.
Alle Fachquellen, die bei der Erstellung einer Studienarbeit verwendet werden, sind geeignet in der Arbeit anzugeben (zu „zitieren“), damit die Gedanken, Methoden und Ergebnisse Dritter klar erkennbar sind und damit die Verankerung der Studienarbeit in den bisherigen Stand des Wissens im Fachgebiet deutlich wird.
Für das Zitieren von Fachquellen sind sogenannte Zitierrichtlinien zu beachten, die Form und Aussehen von Literaturangaben vorschreiben. Für viele verschiedene Typen von Fachquellen gelten bestimme Regeln, deren Einhaltung – letztlich – kein großes Problem darstellt.
„43.000 offene Stellen für IT-Experten“ (BITKOM), „IT-Absolventen: Stars auf dem Arbeitsmarkt“ (Krieger 2013) und ganz aktuell „IT-Fachkräftemangel bremst Unternehmen aus“ (Pagel 2013); diese und zahlreiche ähnlich lautende Überschriften tauchen immer wieder in der Presse auf. Die Arbeitsmarktsituation für Informatiker/innen ist also weiterhin verlockend, dennoch steigt die Anzahl der Studierenden bzw. Auszubildenden im IT-Bereich nicht erwartungsgemäß. Woran mag dies liegen? Was macht diese Jobs – gerade auch für junge Frauen – so unattraktiv? Eine mögliche Antwort darauf liefert der bereits 2006 in der Zeit-Online erschienene Artikel „Die Informatiker“ (ZEIT ONLINE GmbH et al.) über die Studenten-Klischees der verschiedenen Fachrichtungen. Da werden Informatikern zum einen äußerlich sichtbare Merkmale wie Kurzsichtigkeit, zahlreiche Hautunreinheiten und ein ausgeprägter Kehlkopf zugeschrieben, aber zum anderen auch noch das Image des Klugscheißers oder des Nerds.
Im Folgenden werden die wesentlichen wissenschaftlichen Grundlagen dieser Arbeit vorgestellt. Kapitel 2.1 „Forschungsmethodik der Literaturanalyse“ befasst sich mit der Methodik zur Analyse der wesentlichen Literaturfelder. In Kapitel 2.2 „Eingrenzung und State of the Art der IT-Governance“ wird das Ergebnis der Literaturanalyse für die IT-Governance-Anteile aufgezeigt und im Anschluss daran in Kapitel 2.3 „Eingrenzung und State of the Art der IT-Komplexität“ das Ergebnis für die Komplexitätstheorie allgemein und die IT-Komplexität im Speziellen beleuchtet. Mit Kapitel 2.4 wird schließlich ein Zwischenfazit gezogen. Eine erste Übersicht über die Literaturergebnisse, die Basis für dieses Kapitel ist, wurde in B
EETZ
& K
OLBE
(2010) bereits publiziert und mit B
EETZ
& K
OLBE
(2011) teilweise ergänzt; Teile der Basisliteratur zur (IT-)Komplexität wurden in B
E-Learning kann die Überwindung von Kompetenzdefiziten auf dem Gebiet der Mathematik, insbesondere bei der sicheren Beherrschung erworbenen Wissens, unterstützen. An der Hochschule für Technik und Wirtschaft des Saarlandes wird dafür das Online-Übungssystem MathCoach genutzt. Wir demonstrieren die Funktionsweise von MathCoach und stellen besondere Leistungsmerkmale heraus, insbesondere die Hilfegenerierung mittels Domain Reasoner. Wir legen die bisher vorliegenden Erkenntnisse zum Erfolg des Vorgehens dar, schätzen den Nutzen ein und erörtern Zielstellungen für die weitere Entwicklung.
ist ein neues interdisziplinäres Fachgebiet entstanden, das eine Brückenfunktion zwischen Informatik, Geographischen Informationstechnologien und Geowissenschaften oder raumbezogen arbeitenden Wissenschaften ausübt:
Die Etablierung der Geoinformatik als eigenständige Disziplin ist inzwischen vollzogen. Wissenschaftlichen Einrichtungen und Professuren, Studiengänge, Lehrbücher und Zeitschriften, Tagungen und Vereinigungen sind hierfür klare Indikatoren, ebenso wie Fachmessen zur Geoinformatik oder die öffentliche Akzeptanz und Verwendung des Begriffs als Bestandteil von Firmennamen. Allerdings sind Definition und Zuordnung von Inhalten noch im Fluss.
Eine Möglichkeit, sich dem Begriff Informatik zu nähern, sind typische Ausdrücke, die mit Informatik zu tun haben: Information, Informationssysteme, Computer, EDV, Rechner, Programmierung, Software, Hardware, Internet, Textverarbeitung, Computerspiele. Betrachtet man diese Begriffe, so stellt man fest, dass „Information“ und „Computer“ eine wesentliche Rolle spielen.
Eine Möglichkeit, sich dem Begriff Informatik zu nähern, sind typische Ausdrücke, die mit Informatik zu tun haben: Information, Informationssysteme, Computer, EDV, Rechner, Programmierung, Software, Hardware, Internet, Textverarbeitung, Computerspiele. Betrachtet man diese Begriffe, so stellt man fest, dass „Information“ und „Computer“ eine wesentliche Rolle spielen. In der Literatur sind verschiedene Definitionen von Informatik zu finden, beispielsweise die folgenden:
Nachdem wir ausführlich die ganzen Zahlen studiert haben, wenden wir uns der nächst größeren Zahlenmenge, der Menge der rationalen Zahlen ℚ zu. Damit erreichen wir auch die größte eindimensionale Zahlenmenge, die auf einem Digitalrechner verarbeitbar ist.
Bisher können wir noch keine Eingaben von der Tastatur verarbeiten. Bei vielen Algorithmen ist es von Interesse, dass ein Anwender Eingaben machen kann, die durch den Algorithmus verarbeitet werden können.
Bisher haben wir sämtliche Daten, die von einem Programm eingelesen wurden, von der Tastatur eingelesen und sämtliche Daten, die von einem Programm erzeugt wurden, auf die Konsole ausgegeben. Nun wollen wir die Datenverarbeitung auf sämtliche Dateien, die das Dateisystem des Betriebssystems eines Rechners anbietet, ausdehnen.
Für eine Sammlung von Komponenten, die alle den gleichen Datentyp haben und gemeinsam im RAM verwaltet werden sollen, haben wir bisher als höheren Datentyp Felder (Arrays) verwendet. Bei Feldern ist das Problem, dass man zum Zeitpunkt des Anlegens eines Feldes bereits die Feldlänge (= Anzahl der Komponenten) wissen muss.
Wir wollen uns hier der Frage zuwenden: Welche Konzepte liegen der Definition einer Programmiersprache, insbesondere ihrer
syntaktischen Regeln
zu Grunde? Die Antwort auf diese Frage hat praktische Bedeutung, sie dient dazu, ein System von Anleitungen zu formulieren, mit denen man einen Compiler entwickeln kann.
sind dynamische Objekte. Ihnen können Elemente hinzugefügt oder aus ihnen können Elemente entfernt werden. Mathematische Mengen haben von sich aus keine Anordnung.
In der zeichenorientierten Dateiverarbeitung können Datensätze nur in Form von Zeichenketten abgelegt werden. Wenn man Instanzen von Klassen in Dateien speichern will, hat man, wie wir es erlebt haben, einen Arbeitsaufwand von mehreren Arbeitsschritten beim Ausgeben von Instanzen einer Klasse in eine Datei bzw.
ist ein Rechner, der seine Informationen intern durch Ziffern (engl.: digits) darstellt, wobei die Zifferndarstellung von definierten Spannungszuständen abhängt. Das Ziffernalphabet der vorherrschenden Digitalrechner besteht aus den Ziffern 0 und 1.
Ein wesentliches Kennzeichen eines programmierbaren Digitalrechners ist, dass er ein Universalrechner ist. Das heißt, viele Funktionen des menschlichen Denkens sollen durch einen Rechner ausgeführt werden können, zum Beispiel Rechnen mit ganzen und rationalen Zahlen, Kopieren von Texten, Abfrage von Internetquellen, Sortieren von Daten. Dieses alles muss programmiert werden, bevor es vom Rechner ausgeführt werden kann.
Die Schritte der Entwicklung eines Java-Programms werden mit folgendem Datenflussplan (DFP) erläutert (siehe Abbildung 4-1). Nachfolgend werden die Bestandteile des DFP und damit die Entwicklungsschritte erklärt.
Ein Computer bedarf der Programmierung, um sinnvoll eingesetzt werden zu können. Möchte man ihn zur Lösung bestimmter Probleme verwenden, wie etwa das Sortieren von Daten oder die Multiplikation von Matrizen, so muss die Programmierung eine Vorschrift beschreiben, die festlegt, in welcher Reihenfolge der Computer welche Aktionen durchzuführen hat, damit letztlich die gesuchte Lösung erzeugt wird. Dabei ist es unsinnig, die Vorschrift für eine einzige Eingabe maßzuschneidern. Ziel muss es sein, alle für das jeweilige Problem sinnvolle Eingaben nach derselben Vorschrift abzuarbeiten.
Nur wenige der sechzehn Essayisten haben das Entstehen der später so benannten
Wirtschaftsinformatik zwischen Mitte der 1950er und Anfang der 1960er Jahre, also
die so genannte EDV oder ADV, in unmittelbarer Nähe zu Personen erlebt, die
Wegbereiter und Förderer oder geistige Väter der Gründergeneration der
Wirtschaftsinformatik gewesen sind. Einige haben den einen oder anderen dieser
Enabler – im wahrsten Sinne des Wortes dieser Möglichmacher – während des Studiums
als akademische Lehrer erlebt, haben ihnen nach dem Studium als Mitarbeiter
zugearbeitet, bei ihnen promoviert und/oder sich unter ihrer Anleitung habilitiert.
Berichtet wird über diese Enabler aber nur in einigen Essays und zudem nicht viel,
sie scheinen nach fünf Jahrzehnten schon vergessen zu sein.
Wenn man sich der Geschichte der Wirtschaftsinformatik (WI) mit einem Selbstzeugnis
zuwendet, ist es interessant, neben den für die Entwicklung dieser Wissenschaft
typischen Objekten auch mögliche regionale bzw. länderspezifische
Entwicklungsaspekte zu hinterfragen. Bei der Betrachtung der WI in Deutschland ist
dies, bedingt durch die langjährige Teilung in Ost- und Westdeutschland, eine
relevante Fragestellung. In den weiteren Ausführungen soll aus der persönlichen
Sicht des Verfassers und eng verbunden mit seinem wissenschaftlichen und beruflichen
Werdegang auf bestimmte Aspekte der Entwicklung der WI in Ostdeutschland eingegangen
werden.
Eine Möglichkeit, sich dem Begriff Informatik zu nähern, sind typische Ausdrücke, die mit Informatik zu tun haben: Information, Informationssysteme, Computer, EDV, Rechner, Programmierung, Software, Hardware, Internet, Textverarbeitung, Computerspiele. Betrachtet man diese Begriffe, so stellt man fest, dass „Information“ und „Computer“ eine wesentliche Rolle spielen.
Nachdem ein erstes Verständnis für das Thema einer Studienarbeit entwickelt worden ist, gilt es, einen Ausgangspunkt für die Literaturrecherche zu finden. Diese Situation ist besonders einfach, wenn zum Thema einige Literaturhinweise als Einstiegshilfe mitgeliefert werden. Vorausgesetzt sei dabei, es handelt dabei nicht um eine relativ wahllose und umfangreiche Zusammenstellung von Literatur, die vielleicht relevant sein könnte, sondern um qualifizierte Hinweise, die mit großer Wahrscheinlichkeit relevant sind. Diese Voraussetzungen sind offensichtlich nur erfüllt, wenn der Hinweisgeber reich an Kenntnissen zum Thema und reich an Sorgfalt und Mühe bei der Beobachtung der Fachliteratur ist.
Nur wenige der sechzehn Essayisten haben das Entstehen der später so benannten Wirtschaftsinformatik zwischen Mitte der 1950er und Anfang der 1960er Jahre, also die so genannte EDV oder ADV, in unmittelbarer Nähe zu Personen erlebt, die Wegbereiter und Förderer oder geistige Väter der Gründergeneration der Wirtschaftsinformatik gewesen sind. Einige haben den einen oder anderen dieser Enabler – im wahrsten Sinne des Wortes dieser Möglichmacher – während des Studiums als akademische Lehrer erlebt, haben ihnen nach dem Studium als Mitarbeiter zugearbeitet, bei ihnen promoviert und/oder sich unter ihrer Anleitung habilitiert. Berichtet wird über diese Enabler aber nur in einigen Essays und zudem nicht viel, sie scheinen nach fünf Jahrzehnten schon vergessen zu sein.
Wenn man sich der Geschichte der Wirtschaftsinformatik (WI) mit einem Selbstzeugnis zuwendet, ist es interessant, neben den für die Entwicklung dieser Wissenschaft typischen Objekten auch mögliche regionale bzw. länderspezifische Entwicklungsaspekte zu hinterfragen. Bei der Betrachtung der WI in Deutschland ist dies, bedingt durch die langjährige Teilung in Ost- und Westdeutschland, eine relevante Fragestellung. In den weiteren Ausführungen soll aus der persönlichen Sicht des Verfassers und eng verbunden mit seinem wissenschaftlichen und beruflichen Werdegang auf bestimmte Aspekte der Entwicklung der WI in Ostdeutschland eingegangen werden.
In einer jungen Wissenschaft wie der Informatik mit ihrer Vielschichtigkeit und ihrer unüberschaubaren Anwendungsvielfalt ist man oftmals noch bestrebt, eine Charakterisierung des Wesens dieser Wissenschaft und Gemeinsamkeiten und Abgrenzungen zu anderen Wissenschaften zu finden. Etablierte Wissenschaften haben es da leichter, sei es, dass sie es aufgegeben haben, sich zu definieren, oder sei es, dass ihre Struktur und ihre Inhalte allgemein bekannt sind.
Prof. Dr. Sigrid Schubert, Prof. Dr. Andreas Schwill
Im vorangegangenen Kapitel „Wissenschaftsziele“ haben Sie erfahren, dass die Wirtschaftsinformatik zwei sich ergänzende Orientierungen aufweist. Die eine beschäftigt sich mit dem Verhalten bei der Entwicklung, dem Management und der Nutzung von Informationssystemen, Informationsinfrastrukturen und Objekten der Informationsfunktion, die andere mit deren Gestaltung. Nach dem Durcharbeiten dieses Kapitels wissen Sie, was sich hinter den Begriffen Theorie und Technologie verbirgt und welche Eigenschaften Theorien und Technologien aufweisen. Sie erfahren, dass Theorien und Technologien der Kern unterschiedlicher Forschungskonzeptionen sind. Wenn die Wirtschaftsinformatik einen wissenschaftlichen Beitrag leisten will, muss sich dieser entweder in der Erweiterung bestehender bzw. in der Schaffung neuer Theorien niederschlagen oder in der Erzielung eines technologischen Fortschritts manifestieren.
Prof. em. Dr. Lutz J. Heinrich, Assoc.-Prof. Dr. René Riedl, Prof. Dr. Armin Heinzl
Nach dem Durcharbeiten dieses Kapitels kennen Sie die Wurzeln, aus denen sich die Fachsprache der Wirtschaftsinformatik entwickelt hat und erkennen, warum und wie sie sich weiterentwickelt. Sie kennen den Unterschied zwischen Umgangssprache oder Gemeinsprache und Fachsprache. Sie wissen, dass Fachsprache neben dem Begriffssystem oder der Terminologie so genannte Phraseologismen und eine fachspezifische Grammatik umfasst und dass die Verwendung von fachspezifischen Abkürzungen, Akronymen, Bildzeichen oder Bildsymbolen, Metaphern und Mnemos sowie die Verwendung von Anglizismen üblich ist. Sie erfahren, dass das Begriffssystem der wesentliche Teil der Fachsprache ist und welche Bedeutung Begriffe und Definitionen für die Wirtschaftsinformatik haben. Sie kennen die Bedeutung von Begriffen und Definitionen für die Erfüllung von Wissenschaftskriterien, vor allem für Überprüfbarkeit und Verständlichkeit. Sie erkennen, dass Begriffe und Definitionen Grundlage für Theoriebildung sind und dass ihnen kein Eigenwert zukommt, dass sie also keinen „Wert an sich“ haben.
Prof. em. Dr. Lutz J. Heinrich, Assoc.-Prof. Dr. René Riedl, Prof. Dr. Armin Heinzl
Nach dem Durcharbeiten dieses Kapitels wissen Sie, dass Wirtschaftsinformatik sowohl Realwissenschaft, empirische Wissenschaft oder Erfahrungswissenschaft als auch Ingenieurwissenschaft und Strukturwissenschaft ist. Sie erkennen, dass die Einordnung als Realwissenschaft formalwissenschaftliche Einflüsse nicht ausschließt. Sie wissen, welche Kriterien eine Wissenschaft kennzeichnen und dass diese als Kriterien der Wissenschaftlichkeit oder als Wissenschaftskriterien bezeichnet werden. Sie erkennen, dass und inwieweit die Wirtschaftsinformatik die Wissenschaftskriterien erfüllt. Sie lernen, dass es nicht ausreicht, nur zwischen wissenschaftlich und unwissenschaftlich zu unterscheiden, sondern dass es notwendig ist, ergänzend das Merkmal nicht-wissenschaftlich zu verwenden, wenn über den Wissenschaftscharakter diskutiert und der Wissenschaftscharakter einer Disziplin beurteilt werden soll. Sie erkennen, dass die Wirtschaftsinformatik – wie jede Wissenschaft – viel enthält, was nicht den Charakter wissenschaftlich hat, was aber auch nicht unwissenschaftlich, sondern eben nicht-wissenschaftlich ist. Sie erhalten Antworten auf die Frage, was im Zusammenhang mit Wissenschaftscharakter Wahrheit bedeutet. Sie erfahren schließlich, welche Rolle Nachbardisziplinen für die Wirtschaftsinformatik spielen und dass auch die Wirtschaftsinformatik aufgefordert und in der Lage ist, Wissen zu exportieren.
Prof. em. Dr. Lutz J. Heinrich, Assoc.-Prof. Dr. René Riedl, Prof. Dr. Armin Heinzl
Die Informationstechnologie hat sich längst zu einer echten
Querschnittstechnologie
entwickelt. Sie durchdringt weiteste Teile derWirtschaft und Gesellschaft. Für IT-Fachleute heißt dies, dass sie in praktisch allen Branchen nachgefragt werden.
Roboter sind sicherlich in erster Linie durch unterschiedliche Science-Fiction-Filme der Öffentlichkeit näher gebracht worden, wie beispielsweise die Roboter C-3PO und R2-D2 aus der „Star Wars“-Reihe. Doch selbst in diesen Zukunfsvisionen ist die Vorhersagbarkeit von Robotersystemen oft schwierig, was die folgende Aussage von C-3PO belegt:
„Diese Droiden geraten manchmal außer Kontrolle. Selbst ich kann ihrer Logik bisweilen nicht folgen.“
Prof. Dr. Karsten Berns, Dipl. Inf. Daniel Schmidt
-Agentensystem modelliert (Kapitel 3.1), der Verhandlungsalgorithmus (Kapitel 3.2) entwickelt und sukzessiv um die Komponenten der Bedingten Agenten (Kapitel 4.1) und des verteilten Lernens (Kapitel 5) erweitert. Das erste formulierte Hauptziel (siehe Kapitel 1.2) von D
ezent
ist, dass die erzielten Preise für Konsumenten und Produzenten günstiger sind, als unter zentralem Management in einem konventionellen Versorgungssystem (siehe Kapitel 2.1). Die zweite wichtige Anforderung an das D
ezent
-System ist, dass die entwickelten Prozesse für die Kommunikation, Koordination, Adaption und Stabilität (siehe Kapitel 1.4) die harten Echtzeitanforderungen in D
ezent
erfüllen, d.h. hier, innerhalb einer Verhandlungsperiode von 500 ms Länge abgeschlossen sind.
Im Kontext produktbegleitender Dienstleistungen spielt zunehmend die prozessorientierte IT-Unterstützung als Wettbewerbsfaktor eine wichtige Rolle. Gerade zur korrekten, qualitativ hochwertigen und dennoch kostengünstigen Erbringung bei wissensintensiven Dienstleistungen an komplexen technischen Produkten wird eine derartige Unterstützung zu einem signifikanten Wettbewerbsvorteil. Denn die Anforderungen an den technischen Kundendienst steigen kontinuierlich und die derzeitige Informationsversorgung wird diesem hohen Anspruch nicht gerecht. Das Risiko fehlerhafter Arbeiten und dadurch bedingter Maschinenausfallzeiten ist enorm. Dieses Kapitel zeigt, wie die Ergebnisse der Untersuchungen bzw. Die entwickelten Konzepte und Methoden aus dem Forschungsvorhaben PIPE in ein Serviceportal überführt wurden, mit dem es erstmals möglich wird, den technischen Kundendienst mobil, multimedial und prozessorientiert mit adäquatem Servicewissen zu versorgen. Nach einer Differenzierung unterschiedlicher Wissensarten und Portalvarianten erfolgt zunächst die Erläuterung der Gesamtarchitektur des Informationssystems. Anschließend wird dargestellt, wie die in PIPE entwickelte Methodik zur Modellierung von Serviceinformationen in einem eigens dafür konzipierten Modellierungstool umgesetzt wird, wie die Kommunikation der Serviceinformationen erfolgt und wie diese auf einem mobilen Endgerät verwendet werden. Die Identifikation erzielbarer Nutzeffekte schließt das Kapitel ab.
Dipl.-Wirtsch.-Ing. (FH) Michael Schlicker, Dr. Stefan Leinenbach
Der Beitrag würdigt das Wirken von Professor Claus auf Gebieten des rechnerunterstützten Lehrens. Dabei wird ein Bogen von den frühen Systemen des rechnerunterstützten Lehrens über moderne Lernplattformen im Internet zu neuen Anwendungen web-basierter Systeme für das lebenslange Lehren und Lernen gespannt.
Rul Gunzenhäuser, Christiane Taras, Michael Wörner
Da die Fähigkeiten einer Person nicht unmittelbar beobachtbar sind, ist Kompetenz stets als ein theoretischer Terminus zu behandeln. E
rpenbeck
und R
osenstiel
betonen in diesem Zusammenhang, dass der Kompetenzbegriff
theorierelativ
ist, generell also nur im Rahmen einer spezifischen Theorie eine feste Bedeutung hat. Um eine Brücke zur empirischen Beobachtung zu bilden, bedarf es eines tauglichen Kompetenzmodells als spezifische Interpretation einer Theorie, welches im Rahmen der Theorie dann Voraussagen gestattet. Gegenstand dieses Kapitels ist folglich die Herleitung eines Strukturmodells, anhand dessen sich das spezifische Kompetenzprofil eines IT-Experten empirisch fassbar machen lässt. Inhaltlich ist die Frage nach den Komponenten eines solchen Modells gleichbedeutend mit der Frage,
welche
Kompetenzen im Zusammenhang einer Unternehmensgründung in der Net Economy für IT-Experten relevant sind.
Das in diesem Kapitel dargestellte Verzeichnis von Universitäten in deutschsprachigen Ländern, an denen Studiengänge mit wesentlichen Wirtschaftsinformatik-Inhalten angeboten werden, wurde im Rahmen einer Erhebung ermittelt, die im Herbst 2007 abgeschlossen wurde. An der Erhebung beteiligten sich insgesamt 69 Universitäten, davon 59 aus Deutschland, sechs aus Österreich und vier aus der Schweiz. Im Sommer 2008 wurden die erhobenen Daten durch eine weitere Umfrage aktualisiert.
Die Erfahrung zeigt, dass kaum ein Student sein Studium innerhalb der von den Fach bereichen angegebenen Regelstudienzeit — 9 Semestern an den Unis und 7 bis 8 Semestern an den FHs — beendet.
Ausgangspunkt für eine Karriere im IT-Bereich ist zumeist eine Ausbildung im Fach Informatik. Ausbildungen in anderen technischen oder wirtschaftswissenschaftlichen Fächern zählen zu den weiteren Optionen. Die Auflistung der Berufsfelder im ersten Kapitel deutet bereits an, dass es für Informatiker eine Vielzahl von Ausrichtungen gibt. Das Erreichen eines Berufsziels kann durch die Wahl eines adäquaten Studiengangs erleichtert werden.
Seit Jahresanfang 2004 mehren sich die Anzeichen für eine nachhaltige Erholung am IT-Arbeitsmarkt. Allgemein herrscht Einigkeit, dass die Talsohle erreicht ist. Die IT-Kernbranchen Informationstechnologie und Telekommunikation sind europaweit, ja weltweit wieder deutlich im Aufwind. Nach der rund dreijährigen Schwächephase, die von einem dramatischen Einbruch bei den Stellenangeboten begleitet war, berichten die Unternehmen von deutlich wachsenden Auftragseingängen und Umsätzen sowie von einer branchenübergreifend erhöhten Investitionsbereitschaft.
One of the key research issues with moving objects databases (MOD) is the uncertainty management problem. In this paper, we discuss how the uncertainty of network constrained moving objects can be reduced by using reasonable modeling methods and location update policies. Besides, we present a framework to support variable accuracies in presenting the locations of moving objects. The operation design issues with uncertainty involved are also discussed.
„Wo damals die Grenzen der Wissenschaft waren, da ist jetzt die Mitte“, notiert der Göttinger Mathematiker, Physiker und Schriftsteller Georg Christoph Lichtenberg um 1790. Streng geometrisch wird er es nicht gemeint haben, denn die Wissenschaften vollziehen ihre Grenzverschiebungen und -überschreitungen an den unterschiedlichsten Stellen. Doch selten wird etwas aufgegeben, meist wird akkumuliert. Die junge Wissenschaft der Informatik macht da keine Ausnahme. Ihre Geltungsansprüche wachsen so schnell, daß sie auch von ihren Betreibern gelegentlich als ‘überzogen’ empfunden werden.
In diesem Kapitel werden wir uns weiter mit der Klasse der regulären Sprachen beschäftigen. Während wir in Kapitel 2 nur akzeptierende Konzepte für diese Klasse, nämlich Varianten von endlichen Automaten, betrachtet haben, führen wir jetzt zwei weitere Konzepte zur Beschreibung dieser Sprachklasse ein: reguläre Ausdrücke und Typ-3-Grammatiken.
Nachdem wir uns in den vorangegangenen Kapiteln mit Berechenbarkeit beschäftigt und im letzten Kapitel festgestellt haben, dass es nicht entscheidbare Mengen, d. h. nicht berechenbare Probleme gibt, werden wir uns in diesem Kapitel mit berechenbaren Problemen befassen, und zwar mit dem Aufwand für ihre Berechnung.
Among other operations, a spatiotemporal DBMS should efficiently answer the spatiotemporal join. This paper presents an evaluation of spatiotemporal join algorithms using these new structures, particularly a partially persistent R-Tree called Temporal R-Tree and the 2+3D R-Tree. Starting from spatial join algorithms, we present algorithms for processing spatiotemporal joins over time instants and intervals on both spatiotemporal data structures. Finally, we implement and test these new algorithms with a couple of generated spatiotemporal data sets. Our experiments show that our algorithms’ performance is good even in extreme cases, showing its good scalability – especially for the TR-Tree.
Geraldo Zimbrão, Jano Moreira de Souza, Victor Teixeira de Almeida
In this paper, a State-Based Dynamic Transportation Network (SBDTN) model is presented, which can be used to describe the spatio-temporal aspect of temporally variable transportation networks. The basic idea of this model is to associate a temporal attribute to every node or edge of the graph system so that state changes (such as traffic jams and blockages caused by temporary constructions) and topology changes (such as insertion and deletion of nodes or edges) can be expressed. Since the changes of the graph system are discrete, the temporal attribute can be expressed as a series of temporal units and each temporal unit describes one single state of the node or edge during a certain period of time. The data model is given as a collection of data types and operations which can be plugged as attribute types into a DBMS to obtain a complete data model and query language.
Die Informatik ist eine sehr junge Ingenieurswissenschaft und heute längst dem engen, klassischen Ansatz der Informiationstechnik und Mathematik entwachsen. Der rasante Fortschritt in der Hardwaretechnologie und Elektronik einerseits, als auch die Fähigkeit, zunehmend aufwendigere Abläufe softwaretechnisch und methodenorientiert abzubilden andererseits, erlauben, immer komplexere Aufgabenstellungen mit Hilfe von Computern zu lösen. Die Informatik begleitet uns in allen Lebensbereichen von der (intelligenten) Anlagensteuerung über die Medizintechnik bis in die Verwaltung und das home-office. Die Tatsache, dass wir uns in lebenswichtigen Situationen (wie der Steuerung von Atomkraftwerken, Flugzeugen, Medizin) auf Informatiksysteme verlassen, erfordert die Erforschung und Weiterentwicklung der Teilgebiete der Informatik und die konsequente, enge Einbindung der Anwendungsgebiete.
Univ-Prof. Dipl.-Ing. Dr. techn. Dr. mult. h.c. Peter Kopacek, Dipl.-Ing. Dr. techn. Martin Zauner, M.Sc. (OU) EM
Action refinement is a practical hierarchical method to ease the design of large reactive systems. Relating hierarchical specification to hierarchical implementation is an effective method to decrease the complexity of the verification of these systems. In our previous work [15], this issue has been investigated in the simple case of the refinement of an action by a finite process.In this paper, on the one hand, we extend our previous results by considering the issue in general, i.e., refining an abstract action by an arbitrary process; on the other hand, we exploit different techniques such that our method is easier to be followed and applied in practice.
Only very special subclasses of probability distributions can be used for qualitative reasoning that meets basic logical demands. Snow’s atomic bound systems (big-stepped probabilities) provide one positive example for such a subclass. This paper presents a thorough investigation of the formal logical relationships between qualitative and probabilistic default reasoning. We start with formalizing qualitative conditional logic, as well as both standard and big-stepped probabilistic logic as abstract logical systems, using the notion of institutions. The institution of big-stepped probabilities turns out to be a proper combination of the other two. Moreover, the framework of institutions offers the possibility to elaborate exactly the properties that make probability distributions suitable for qualitative reasoning.
We present algebraic equivalences that allow to unnest nested algebraic expressions for order-preserving algebraic operators. We illustrate how these equivalences can be applied successfully to unnest nested queries given in the XQuery language. Measurements illustrate the performance gains possible our approach.
A scalable feedback mechanism to solicit feedback from a potentially very large group of networked nodes is an important building block for many network protocols. Multicast transport protocols use it for negative acknowledgements and for delay and packet loss determination. Grid computing and peer-to-peer applications can use similar approaches to find nodes that are, at a given moment in time, best suited to serve a request. In sensor networks, such mechanisms allow to report extreme values in a resource efficient way.In this paper we analyze several extensions to the exponential feedback algorithm [5,6] that provide an optimal way to collect extreme values from a potentially very large group of networked nodes. In contrast to prior work, we focus on how knowledge about the value distribution in the group can be used to optimize the feedback process. We describe the trade-offs that have to be decided upon when using these extensions and provide additional insight into their performance by means of simulation. Furthermore, we briefly illustrate how sample applications can benefit from the proposed mechanisms.
In unserem logischen Gang
Technosphäre,Verteilung in der Umwelt,Wirkung,Bewertung sollen nun am Beispiel der Expositionsmodellierung einige weiterführende Aspekte angesprochen werden:Skalenabhängigkeit in der Modellierung,Modelliertechniken,Advektions-Dispersionsgleichung undeinige größere Modelle.
Die Informatik erfährt ihre grundlegende und fächerübergreifende Bedeutung dadurch, daß sie mit dem Computer ein Werkzeug zur Verfügung hat, das erstens in seiner theoretischen Mächtigkeit nicht mehr übertroffen werden kann und zweitens in der Praxis universell anwendbar ist. Nach heutigem Wissen kann man nämlich alles, was sich mit irgendeinem irgendwie denkbaren Formalismus berechnen läßt, vom Prinzip her auch mit dem Computer berechnen, vorausgesetzt man hat genügend Speicher und Zeit zur Verfügung. Der Computer ist aber nicht nur eine Rechenmaschine, sondern ein Universalwerkzeug zur Informationsverarbeitung. Dies wird intuitiv dann klar, wenn man an die heute übliche digitale Kommunikation denkt, wo mit Medien wie CD, DVD, Digitalradio, Digitalfernsehen oder ISDN alle Information in Form von Zahlen, also eben digital, verarbeitet und übermittelt wird. Diese Bedeutung betont auch der europäische Begriff Informatik (Informatics, Informatique) im Gegensatz zum amerikanischen Computer Science.
Professor Dr. Wolfgang Küchlin, Professor Dr. Andreas Weber
In this chapter, we present an overview of some of the research issues related to three areas of audio-visual analysis — (a) segmentation, (b) event detection and (c) summarization.
Kaum eine andere Wissenschaft prägt die gesellschaftliche Entwicklung wie die Informatik. Verfügbarkeit und Nutzung von Informationen sind sowohl für Fortbestand und Erfolg von Institutionen wie z. B. Unternehmen oder die üffentliche Verwaltung als auch für jeden Einzelnen von nach wie vor zunehmender Bedeutung. So wird davon gesprochen, dass sich die Industriegesellschaft in der Transformation zur Informationsgesellschaft befindet — wenn sie nicht schon zu einer Informationsgesellschaft geworden ist (Kuhlen 1996, 45ff). Die Folgen dieser Veränderungen sind heute für jeden sichtbar und spürbar. Die Durchdringung fast aller Lebensbereiche mit Informationstechnik, das zunehmende Informationsangebot und die Entwicklung neuer Informationsmedien (z. B. CD-ROM-Technologie, weltweite Netze oder Interaktives Fernsehen) als Informationsträger sind Indikatoren für den Wandel der Gesellschaft. Man findet kaum noch wissenschaftliche Disziplinen oder Lebensbereiche, die heute noch „Informatik-freie Zone“ sind. Offensichtlich ist dies z. B. in Unternehmen, der üffentlichen Verwaltung und High-Tech-Produkten. Aber Computertechnologie ist im Prinzip allgegenwärtig. So findet man sie z. B. bereits im Spielzeug für die Kleinsten, in Haushaltsgeräten und Unterhaltungselektronik versteckt oder in verschiedenartigsten Automaten (z. B. für Fahrkarten oder Kontoauszüge). Tagtäglich vertrauen Millionen Menschen ihr Leben dem Computer an, ob sie nun beispielsweise an der rechnergesteuerten Herz-Lungen-Maschine angeschlossen sind oder beherzt auf das Bremspedal ihres mit ABS ausgestatteten Fahrzeugs treten.
Professor Dr. Claus Rautenstrauch, PD Dr.-Ing. Thomas Schulze
In diesem Kapitel werden die Grundzüge der Technischen und Praktischen Informatik zusammengefasst. Der Schwerpunkt liegt dabei deutlich auf letztgenanntem Fachgebiet, weshalb die Technische Informatik auch in der Überschrift weggelassen wurde. Es wäre allerdings falsch, hieraus den Schluss zu ziehen, dass die Technische Informatik weniger gehaltvoll oder bedeutsam im Vergleich zur Praktischen Informatik wäre; die Schwerpunktsetzung auf die Praktische Informatik beruht vor allem auf der Relevanz für die Zielgruppe dieses Buchs.
Professor Dr. Claus Rautenstrauch, PD Dr.-Ing. Thomas Schulze
Es wurde ein System ObSys entwickelt, welches eine multidimensionale Darstellung des zeitlichen Verlaufs der Aktionen von Usability Testern an Prototypen auf zweidimensionalen Flächen liefert. Die Kodierung erfolgt durch Linienfarbe, -verlauf und -breite sowie durch die Visualisierung von Mausklicks. Diese Abbildungen, Mousemaps genannt, geben einerseits ad hoc-Überblick über den Verlauf einer Testsitzung ohne längere Zeit Videomaterial betrachten zu müssen, ermöglichen statistische Untersuchungen und liefern neue Sichten über den Gebrauch von GUIs durch Anwender. Mit der Mousemap-Visualisierung und der Unterstützung von bis zu vier verschiedenen Aufzeichnungstechniken geht ObSys über die Fähigkeiten ähnlicher Eventrecorder hinaus und eröffnet neue Möglichkeiten für Usability-Evaluationen sowie für grundlegende Methodenvergleiche.
In this paper, a new moving objects database model – Discrete Spatio-Temporal Trajectory Based Moving Objects Database (DSTTMOD) model, is put forward. Trajectories are used to represent dynamic attributes of moving objects, including the past, current, and future location information. Moving objects can submit moving plans of different length according to their moving patterns. Moreover, they can divide the whole moving plan into multiple sections, and submit each section only when it is about to be used. Different moving objects can set up different threshold to trigger location updates. When a location update occurs to a moving object, not only its future trajectory is updated, but also the corresponding index records are adjusted. The model can support three kinds of queries (point queries, range queries, and K-nearest neighbor (KNN) queries) for location information in not only the near future, but also the far future. In order to evaluate the performance of the DSTTMOD model, a prototype system is developed and a series of experiments are conducted which show promising performance.
The inference process in a probabilistic and conditional environment under minimum relative entropy, is briefly repeated following the steps knowledge acquisition, query and response. In general, acquired knowledge suffers from first and second order uncertainty. First order uncertainty is missing information in the knowledge base; second order uncertainty is the vagueness or non-reliability of the system’s response to a query. Both, first and second order uncertainty can be reduced by adequate additional information. In the present paper we develop the idea of a self learning knowledge base. Once the system detects a not justifiable vagueness in a recent answer it informs the user about the second order uncertainty and requires additional information in an intelligible syntactical form. This communication reduces both, first and second order uncertainty in general. Suitable examples accompany the theoretical considerations; they are modelled and calculated by means of the expert system shell SPIRIT.
We present a flexible approach for extracting hierarchical classifications from data, which employs the logic of affirmative assertions. The basic observation is that each set of rules induced by the data canonically determines a classificational hierarchy. We give a characterization of how the chosen rule type affects the structure of the induced hierarchy. Moreover, we show how our approach is related to Formal Concept Analysis. The framework is then applied to the induction of hierarchical classifications from an amino acid database. Based on this example, the pros and cons of several types of hierarchies are discussed with respect to criteria such as compactness of representation, suitability for inference tasks, and intelligibility for the human user.
Die Erfahrung zeigt, dass kaum ein Student sein Studium innerhalb der von den Fachbereichen angegebenen Regelstudienzeit — 9 Semestern an den Unis und 7 bis 8 Semestern an den FHs — beendet.
Ausgangspunkt für eine Karriere im IT-Bereich ist zumeist eine Ausbildung im Fach Informatik. Ausbildungen in anderen technischen oder wirtschaftswissenschaftlichen Fächern zählen zu den weiteren Optionen. Die Auflistung der Berufsfelder im ersten Kapitel deutet bereits an, dass es für Informatiker eine Vielzahl von Ausrichtungen gibt. Das Erreichen eines Berufsziels kann durch die Wahl eines adäquaten Studiengangs erleichtert werden.
In keinem Bereich wurden in den letzten Jahren so viele Fachkräfte gesucht wie im IT-Sektor. IT-Fachleute waren rar und teuer bezahlt, und von den Lehrstühlen für Informatik sowie Elektro- und Informationstechnik wuchsen längst nicht so viele Nachwuchskräfte nach, wie sie von der Industrie nachgefragt wurden.
We develop a high-level ASM specification for the Condor system that provides powerful methods and tools for managing knowledge represented by conditionals. Thereby, we are able to elaborate crucial interdependencies between different aspects of knowledge representation, knowledge discovery, and belief revision. Moreover, this specification provides the basis for a stepwise refinement development process of the Condor system based on the ASM methodology.
Nachdem ein erstes Verständnis für das Thema einer Studienarbeit entwickelt worden ist, gilt es, einen Ausgangspunkt für die Literaturrecherche zu finden. Diese Situation ist besonders einfach, wenn zum Thema einige Literaturhinweise als Einstiegshilfe mitgeliefert werden. Vorausgesetzt sei dabei, es handelt dabei nicht um eine relativ wahllose und umfangreiche Zusammenstellung von Literatur, die vielleicht relevant sein könnte, sondern um qualifizierte Hinweise, die mit großer Wahrscheinlichkeit relevant sind. Diese Voraussetzungen sind offensichtlich nur erfüllt, wenn der Hinweisgeber reich an Kenntnissen zum Thema und reich an Sorgfalt und Mühe bei der Beobachtung der Fachliteratur ist.
Ein System zu entwerfen, sei es ein Produkt, ein Produktionssystem oder ein Informationssystem, das in einem übergeordneten technischen System für die Planung oder die Steuerung eingesetzt werden soll, ist ein Prozess, der nur dann erfolgreich im Sinne der Erreichung der Sach- und Formalziele verlaufen kann, wenn es gelingt, partiell vorhandenes Wissen zu handhaben und die Komplexität des Entwurfs zu reduzieren. Ein Hilfsmittel dazu, aber keinesfalls ein Rezept, das zwangsläufig zum Erfolg führt, ist die Systemtechnik. Systemtechnik ist vor allem ein Weg, die Dinge geordnet zu sehen, Abläufe zu sequentialisieren, Brauchbares zu identifizieren, eine Arbeitsteilung einzurichten und insbesondere vorhandenes Wissen als Black box nutzen und integrieren zu können.
This paper is dedicated to Thomas Ottmann on the occasion of his 60th birthday.We discuss the design of several Java applets that visualize how the Voronoi diagram of n points continuously changes as individual points are moved across the plane, or as the underlying distance function is changed. Moreover, we report on some experiences made in using these applets in teaching and research. The applets can be found and tried out at
Christian Icking, Rolf Klein, Peter Köllner, Lihong Ma
Action refinement provides a mechanism to design a complex reactive system hierarchically. This paper is devoted to action refinement from a logical point of view, and to combining the hierarchical implementation of a complex system with the hierarchical specification of the system in order to verify it in an easy way. To this end, we use a TCSP-like language with an action refinement operator as a modeling language, and an extension of the modal μ-calculus, called FLC (Fixpoint Logic with Chop) [18], as a specification language. Specifications in FLC can be refined via a mapping that takes as arguments an abstract specification φ for the process P, an action a of P and a specification ψ for the process Q that may refine a and produces a refined specification. We prove under some syntactical conditions: if Q ⊨ ψ then P ⊨ φ iff. P[a⇝Q] satisfies the refined specification. Therefore our approach supports ‘a priori’ verification in system design and can be used to decrease substantially the complexity of verification.
Mila Majster-Cederbaum, Naijun Zhan, Harald Fecher
Lightweight, ‘agile’ software development methods are not a replacement for traditional, heavyweight methods. But under certain assumptions, they are a strong alternative in many areas of software development. In this paper, we outline the differences between agile and traditional approaches of software development and examine how development tools are used in the latter. We consider experience from industrial projects as well as results found in the research community. Then we discuss the requirements which agile methods and development processes impose on development tools and show how existing tool technology can be used to build agile tools. These tools allow agile methods to evolve through suitable tool support.
Mit der Geoinformatik ist ein neues interdisziplinäres Fachgebiet entstanden, das eine Brückenfunktion zwischen Informatik, Geographischen Informationstechnologien und Geowissenschaften oder raumbezogen arbeitenden Wissenschaften ausübt:
Zu einer ersten Beantwortung der Frage “Was ist Wirtschaftsinformatik?” eignet sich am besten ein konkreter Anwendungsfall. Als Beispiel soll ein freier Kraft-fahrzeughändler dienen. Kraftfahrzeughandel betreiben Niederlassungen der Kfz-Hersteller, herstellerabhängige Vertretungen (Vertragshändler) und markenunabhängige Autohäuser (freie Händler). Niederlassungen und Vertragshändler verkaufen Neu-, Jahres- und Gebrauchtwagen und unterhalten in der Regel eigene Werkstätten. Freie Händler verkaufen nur Jahres- und Gebrauchtwagen, insbesondere auch instandgesetzte Unfallwagen, und verfügen häufig über eigene Werkstätten.
Professor Dr. Peter Stahlknecht, Professor Dr. Ulrich Hasenkamp
Seit 1998 gibt es die duale Ausbildung zur Fachangestellten für Medienund Informationsdienste, abqekürzt FAMI. Die Fachrichtung Archiv ist eine von 5 Fachrichtungen. Fur die Ausbildung zur FAMI ist keine besondere schulische Voraussetzung gefordert, jedoch sollte zumindest ein qualifizierender Hauptschulabschluss gegeben sein. Duale Ausbildung heißt, dass die praktische Ausbildung in einem Betrieb, die theoretische Ausbildung in der Berufsschule stattfindet. Ausbildungsbetrieb kann jedes größere Archiv sein, z.B. ein Stadtarchiv, ein größeres Firmenarchiv oder Pressearchiv. Die Ausbildung dauert 3 Jahre, eine Verkürzung ist im Einzelfall bei sehr guten Leistungen und entsprechender Vorbildung möglich, bei Realschulabsolventen auf 2 1/2 Jahre, bei Abiturienten auf 2 Jahre.
In diesem Beitrag wird die Entwicklung der Plattform Virtuelle Universität zur Unterstützung internetbasierter Lehre diskutiert, wobei der Fokus auf der Benutzergruppe der Dozenten und Betreuer liegt. Es wird die spezielle Situation der Fernlehre, die hieraus resultierenden Probleme, deren prototypische Umsetzungen und die gemachten Erfahrungen dargestellt sowie Ansätze zur Plattformerweiterung vorgestellt.
It is well known that conditionals need a non-classical environment to be evaluated. In this paper, we present a formalization of conditional logic in the framework of institutions. In regarding both qualitative and probabilistic conditional logic as abstract logical systems, we investigate how they can be related to one another, on the one hand, and to the institution of propositional logic, on the other hand. In spite of substantial differences between these three logics, we find surprisingly clear formal relationships between them.
Turingautomaten können — wie endliche Automaten — nicht nur als Sprachakzeptoren betrachtet werden, sondern — wie endliche Maschinen — als Berechner von Funktionen. Die Turing-Berechenbarkeit ist eine der ersten mathematischen Formalisierungen und Präzisierungen des Begriffs Berechenbarkeit. Turing-Berechenbarkeit ist ein Ansatz zur formalen Präzisierung des Berechenbarkeitsbegriffs, der von einem intuitiven Verständnis von Berechenbarkeit, dem menschlichen Rechnen mit Hilfe von Bleistift und Papier, ausgeht. Andere Ansätze, wie loop-, while- und goto-Berechenbarkeit, gehen von einer formalen Beschreibung von Rechenverfahren (Algorithmen) mit programmiersprachlichen Notationen aus. Die Äquivalenz unterschiedlicher Ansätze zur Definition des Begriffs Berechenbarkeit begründet die Churchsche These, die besagt, dass diese formalen Berechenbarkeitsbegriffe mit dem intuitiven Verständnis von Berechenbarkeit übereinstimmen.
Prof. Dr. Gottfried Vossen, Prof. Dr. Kurt-Ulrich Witt
In diesem Kapitel werden wir uns weiter mit der Klasse der regulären Sprachen beschäftigen. Während wir in Kapitel 2 nur akzeptierende Konzepte für diese Klasse, nämlich Varianten von endlichen Automaten, betrachtet haben, führen wir jetzt zwei weitere Konzepte zur Beschreibung dieser Sprachklasse ein: reguläre Ausdrücke und Typ-3-Grammatiken.
Prof. Dr. Gottfried Vossen, Prof. Dr. Kurt-Ulrich Witt
Nachdem wir uns in den vorangegangenen Kapiteln mit Berechenbarkeit beschäftigt und im letzten Kapitel festgestellt haben, dass es nicht entscheidbare Mengen, d. h. nicht berechenbare Probleme gibt, werden wir uns in diesem Kapitel mit berechenbaren Problemen befassen, und zwar mit dem Aufwand für ihre Berechnung. Dabei werden wir uns auf den Rechenzeitaufwand beschränken, d. h. die Anzahl der Schritte, die ein Algorithmus zur Berechnung eines Problems benötigt. Andere Komplexitäten, wie z. B. die Größe des Speicherplatzes, den eine Berechnung benötigt, werden wir nicht betrachten.
Prof. Dr. Gottfried Vossen, Prof. Dr. Kurt-Ulrich Witt
Die Erfahrung zeigt, dass kaum ein Student sein Studium innerhalb der von den Fachbereichen angegebenen Regelstudienzeit — 9 Semestern an den Unis und 7 bis 8 Semestern an den FHs — beendet.
In keinem Bereich wurden in den letzten Jahren so viele Fachkräfte gesucht wie im IT-Sektor. IT-Fachleute waren rar und teuer bezahlt, und von den Lehrstühlen für Informatik sowie Elektro- und Informationstechnik wuchsen längst nicht so viele Nachwuchskräfte nach, wie sie von der Industrie nachgefragt wurden.
Wohl kein anderes Lehr- und Forschungsgebiet hat in den letzten 20 Jahren solch eine rasante Entwicklung erfahren wie die Informatik. Die Rahmenbedingungen im technologischen, wirtschaftlichen, arbeitsmarktpolitischen und gesellschaftlichen Bereich verändern sich dramatisch schnell. Die Informatik hat sich als eine eigenständige Wissenschaft etabliert, und viele Fachhochschulen haben Informatik-Studiengänge („Allgemeine Informatik“) geschaffen. Aus Sicht der unterschiedlichen Anwendungsgebiete der Informatik sind verschiedene Wissenschaftsdisziplinen entstanden, die die Informationstechnik hauptsächlich als Werkzeug betrachten und eigenständige wissenschaftliche Methoden und Theorien erarbeitet haben. Hierzu zählen beispielsweise die Wirtschaftsinformatik, die Technische Informatik, die Medieninformatik, die Bioinformatik oder die Medizinische Informatik. Diese Spezialisierung der Informatik-Anwendung hat ebenfalls eine Fülle von neuen Fachhochschulstudiengängen etabliert. Das folgende Kapitel gibt einen Überblick über das IT-Studium an Fachhochschulen, wohl wissend, dass für Ihre individuelle Wahl der Studienrichtung und der Hochschule die Studienangebote der einzelnen Hochschulen von Ihnen genauer geprüft werden müssen.
In den Studiensemestern vermitteltes theoretisches Wissen muss in der Praxis, also insbesondere im betrieblichen Umfeld angewendet, geübt und vertieft werden. Aus diesem Grunde ist an allen IT-Studiengängen von Fachhochschulen vorgesehen, dass die Studierenden ein bzw. zwei Semester in geeigneten Betrieben oder Dienststellen (Praxisstellen) praktische Erfahrungen und Kenntnisse erlangen, welche den Lehrstoff vertiefen bzw. ergänzen. Ob nun ein oder zwei Praxissemester abzuleisten sind und um welche Semester es sich dabei handelt, kann von Fachhochschule zu Fachhochschule verschieden sein. An der Fachhochschule Furtwangen sind es in den IT-Studiengängen normalerweise das 3. und 6. Semester. Ein praktisches Studiensemester umfasst i. d. R. 20 Wochen praktischer Tätigkeit im Berufsfeld inklusive der von der Fachhochschule angebotenen Lehrveranstaltungen zur Vor- und Nachbereitung des praktischen Studiensemesters. Studierende werden während des praktischen Studiensemesters von der Fachhochschule betreut. Dies erfolgt in der Regel durch vier Stunden Betreuung je Studierende. Die Fachhochschule arbeitet in allen die berufspraktische Ausbildung der Studierenden betreffenden Fragen mit der Praxisstelle zusammen. Die Fachhochschule bietet eine vorbereitende und eine nachbereitende Lehrveranstaltung an. Beide Veranstaltungen zusammen werden durch den Schein für das Seminar praktisches Studiensemester testiert. Daneben findet auch eine Betreuung vor Ort durch den verantwortlichen Dozenten statt. Ein praktisches Studiensemester ist anerkannt, wenn sowohl der Praxisteil anerkannt als auch der Schein für das Seminar „Studiensemester in der Praxis“ erbracht wurde.
Prof. Dipl. Inform. Wilhelm Walter, Timo Haberkern, Thomas Lachmann, Bettina Müller, Gerit Wessendorf, Bohnet Armstrong, Dirk Ziegler, Nico Rander
Implicit active contour models are widely used in image processing and computer vision tasks. Most implementations, however, are based on explicit updating schemes and are therefore of limited computational efficiency. In this paper, we present fast algorithms based on the semi-implicit additive operator splitting (AOS) scheme for both the geometric and the geodesic active contour model. Our experimental results with synthetic and real-world images demonstrate that one can gain a speed up by one order of magnitude compared to the widely used explicit time discretization.
Gerald Kühne, Joachim Weickert, Markus Beier, Wolfgang Effelsberg
UML’s current core semantics suffers both from excessive complexity and from being overly general. Resultant is a language definition that is difficult to master and to repair. This is the more disturbing as the current core and its extensions do very little to integrate statics and dynamics, even though the inseparability of these is a property of software from which many of the modelling difficulties arise. To better this unsatisfactory situation, we suggest a simple modelling core with few concepts that are easy to understand, yet cover most static and dynamic modelling aspects. We present our work, which is founded in elementary set theory, in natural language making it equally accessible for both practitioners and formalists.
At its 11th edition, the PhDOOS workshop has become an established annual meeting of PhD students in object-orientation. The main objective of the workshop is to offer an opportunity for PhD students to meet and share their research experiences, to discover commonalities in research and studentship, and to foster a collaborative environment for joint problem-solving. PhD students from both industry and academia are encouraged to attend in order to ensure a broad, unconfined discussion. Senior researchers are also welcomed during the plenary sessions, as they may provide insightful viewpoints and advices to the PhD participants. The workshop also aims at strengthening the international Network of PhD Students in Object-Oriented Systems (PhDOOS). Initiated during the 1st edition of this workshop series at ECOOP’91, this network counts approximately 125 members from all over the world. There is a mailing list and a WWW site, used mainly for information and discussion on OO-related topics.
Gilles Ardourel, Michael Haupt, José Luis Herrero Agustín, Rainer Ruggaber, Charles Suscheck
An ordering for terms with sequence variables and flexible arity symbols is presented. The ordering coincides with the lexicographic extension of multiset path ordering on terms without sequence variables. It is shown that the classical strict superposition calculus with ordering and equality constraints can be used as a refutationally complete proving method for well-constrained sets of clauses with sequence variables and flexible arity symbols.
Confidentiality-preserving refinement describes a relation between a specification and an implementation that ensures that all confidentiality properties required in the specification are preserved by the implementation in a probabilistic setting. The present paper investigates the condition under which that notion of refinement is compositional, i.e. the condition under which refining a subsystem of a larger system yields a confidentiality-preserving refinement of the larger system. It turns out that the refinement relation is not composition in general, but the condition for compositionality can be stated in a way that builds on the analysis of subsystems thus aiding system designers in analyzing a composition.
A strategy S solving a navigation task T is called competitive with ratio r if the cost of solving any instance t of T does not exceed r times the cost of solving t optimally. The competitive complexity of task T is the smallest possible value r any strategy S can achieve. We discuss this notion, and survey some tasks whose competitive complexities are known. Then we report on new results and ongoing work on the competitive complexity of exploring an unknown cellular environment.
Christian Icking, Thomas Kamphans, Rolf Klein, Elmar Langetepe
There is an increasing demand to certify the security of systems according to the Common Criteria (CC). The CC distinguish several evaluation assurance levels (EALs), level EAL7 being the highest and requiring the application of formal techniques. We present a method for requirements engineering and (semi-formal and formal) modeling of systems to be certified according to the higher evaluation assurance levels of the CC. The method is problem oriented, i.e. it is driven by the environment in which the system will operate and by a mission statement. We illustrate our approach by an industrial case study, namely an electronic purse card (EPC) to be implemented on a Java Smart Card. As a novelty, we treat the mutual asymmetric authentication of the card and the terminal into which the card is inserted.
Thomas Rottke, Denis Hatebur, Maritta Heisel, Monika Heiner
In diesem Kapitel werden einige Grundlagen der Informatik und der Informations- und Kommunikationstechnik dargestellt. Entsprechende Erkenntnisse und Methoden stellen eine wesentliche Basis für die Wirtschaftsinformatik dar.
Dr. Andreas Fink, Dr. Gabriele Schneidereit, Prof. Dr. Stefan Voß
Als wir uns mit Programmentwurf beschäftigten, stellten wir fest, daß Programmierexperten die Komplexität ihrer Entwürfe mit denselben allgemeinen Techniken unter Kontrolle halten, wie sie von den Konstrukteuren aller komplexen Systeme verwendet werden. Sie kombinieren elementare Einheiten zu zusammengesetzten Objekten, sie abstrahieren zusammengesetzte Objekte zu Bausteinen auf einer höheren Ebene und sie erhalten Modularität mit einer entsprechend weitgefaßten Sicht der Systemstruktur. Zur Veranschaulichung dieser Techniken haben wir die Sprache Lisp verwendet, um Prozesse zu beschreiben und um Datenobjekte und Rechenprozesse zu konstruieren, die Modelle komplexer Phänomene in der wirklichen Welt sind. Wenn wir uns jedoch zunehmend komplexen Problemen zuwenden, stellen wir fest, daß Lisp und in der Tat jede festgelegte Programmiersprache für unsere Bedürfnisse nicht ausreicht. Wir müssen uns ständig neuen Sprachen zuwenden, um unsere Ideen wirkungsvoller ausdrücken zu können. Die Etablierung neuer Sprachen ist eine wichtige Strategie, mit der die Komplexität technischer Entwürfe unter Kontrolle gehalten werden kann; wir können ein komplexes Problem oft besser in den Griff bekommen, wenn wir zu einer neuen Sprache übergehen, mit der wir das Problem auf andere Weise beschreiben (und auf andere Weise über das Problem nachdenken) können und die elementare Einheiten, Mittel zur Kombination und Mittel zur Abstraktion beinhaltet, die besonders gut für das anstehende Problem geeignet sind.
Es heißt, wir leben heute in einer Informationsgesellschaft. Nachdem jahrzehntelang das Auto das Wirtschafts- und Privatleben entscheidend beeinflußt hat und uns eine bis dato nie gekannte physische Mobilität verschafft hat, ist es nun auch und vor allem die Informations- und Kommunikationstechnik, die unser Leben beeinflußt und verändert.
Prof. Dr. rer. nat. Axel Viereck, Dipl.-Betriebswirt Bernhard Sonderhüsken
Motivated by questions in location planning, we show for a set of colored point sites in the plane how to compute the smallest—by perimeter or area—axis-parallel rectangle and the narrowest strip enclosing at least one site of each color.
Manuel Abellanas, Ferran Hurtado, Christian Icking, Rolf Klein, Elmar Langetepe, Lihong Ma, Belén Palop, Vera Sacristán
For a long time topological predicates between spatial objects have been a main area of research on spatiald ata handling, reasoning, and query languages. But these predicates still suffer from two main restrictions: first, they are only applicable to simplified abstractions of spatial objects like single points, continuous lines, and simple regions, as they occur in systems like current geographical information systems and spatial database systems. Since these abstractions are usually not suficient to cope with the complexity of geographic reality, their generalization is needed which especially has influence on the nature and definition of their topological relationships. This paper gives a formal definition of complex crisp regions, which may consist of several components and which may have holes, and it especially shows how topologicalpre dicates can be defined on them. Second, topological predicates so far only operate on crisp but not on fuzzy spatial objects which occur frequently in geographical reality. Based on complex crisp regions, this paper gives a definition of their fuzzy counterparts and shows how topological predicates can be defined on them.
Topological relationships between spatial objects have been a focus of research on spatial data handling and reasoning for a long time. Especially as predicates they support the design of suitable query languages for spatial data retrieval and analysis in databases. Unfortunately, they are so far only applicable to simplified abstractions of spatial objects like single points, continuous lines, and simple regions, as they occur in systems like current geographical information systems and spatial database systems. Since these abstractions are usually not suficient to cope with the complexity of geographic reality, their generalization is needed which especially has influence on the nature, definition, and number of their topological relationships. This paper partially closes this gap and first introduces very general spatial data types for complex points and complex regions. It then defines the corresponding complete sets of mutually exclusive, topological relationships.
The wavelet transform has become the most interestingn new algorithm for still image compression. Yet there are many parameters within a wavelet analysis and synthesis which govern the quality of a decoded image. In this paper, we discuss different image boundary policies and their implications for the decoded image. A pool of gray-scale images has been wavelet-transformed at different settings of the wavelet filter bank and quantization threshold and with three possible boundary policies.Our empirical evaluation is based on three benchmarks: a first judgment regards the perceived quality of the decoded image. The compression rate is a second crucial factor. Finally, the best parameter settings with regard to these two factors is weighted with the cost of implementation. Contrary to the JPEG2000 standard, where mirror paddingis implemented, our investigation proposes circular convolution as the boundary treatment.
Lehren und Lernen findet zunehmend unter Nutzung der Internettechnologien statt. Gegenstand dieses Workshops ist die Abwicklung der Lehre über das Internet im Sinne einer ganzheitlichen Veranstaltung. So wird es um die Aspekte der Organisation und Durchführung unter Einbindung geeigneter, unterstützender Technologien gehen. Zielsetzung ist damit, die im Bereich der Abwicklung von Lehre im Internet gesammelten Erfahrungen auszutauschen, um voneinander zu lernen, aber auch, um existierende Probleme zu thematisieren. Ausgehend von den dabei identifizierten Defiziten sollen dann Vorschläge für die Realisierung künftiger Lehrumgebungen herauskristallisiert und diskutiert werden.
Bei der Entwicklung hochgradig interaktiver Systeme wird die Aufgabenangemessenheit der entwickelten Systeme, insbesondere der Mensch-Maschine-Schnittstelle, gefordert. Damit ist die Modellierung aus der Sicht des Anwenders und seiner Aufgaben wesentlicher Bestandteil des Entwurfs einer Mensch-Maschine-Schnittstelle, der gleichzeitig aber auch unter Berücksichtigung softwaretechnischer Aspekte erfolgen muss. Innerhalb des Workshops werden diese beiden Modellierungswelten anhand der in der Softwaretechnik etablierten UML (Unified Modeling Language) und der im HCI-Bereich bekannten Aufgabenmodellierung untersucht. Hierbei sollen Affinitäten und Unterschiede dieser Bereiche aufgezeigt, existierende Integrationsansätze betrachtet und angewendete Konzepte zueinander in Bezug gesetzt werden.
Computerunterstützter Unterricht ist der Oberbegriff für das breite Spektrum unterschiedlichster pädagogischer Einsatzformen von Computern in der Lehre. Man unterscheidet dabei verschiedene Ausprägungen, die sich durch ihre Granularität der Interaktivität oder durch ihre Intensität der Nutzung multimedialer Elemente auszeichnen. Beginnend bei ausschließlicher Lernstoff-Präsentation reicht die Bandbreite von Frage-Antwort-Übungen über interaktive Animationen bis hin zu programmierten Simulationen. In diesem Beitrag werden, ausgehend von der Theorie Skinners des programmierbaren Unterrichts, internet basierte Lernumgebungen lerntheoretisch betrachtet. Allgemeine Betrachtungen zur Instruktionspsychologie, bei der unter pädagogischen Aspekten verschiedene Arten der Lehrstoffvermittlung und der resultierenden Gestaltung einer Lernumgebung untersucht werden, schließen sich an. Auf Basis der lerntheoretischen Erkenntnisse werden im zweiten Teil dieses Beitrags verschiedene, unter Verwendung neuer Medien realisierte Varianten am Beispiel des Kurses Mathematik für Wirtschaftswissenschaftler der FernUniversität in Hagen vorgestellt.
In technisch-wissenschaftlichen Anwendungsbereichen wird die rechnergestützte Simulation bereits seit langem zur Analyse und Visualisierung komplexer Zusammenhänge eingesetzt. Allerdings waren die Kosten für eine durchgängige Simulationsanwendung bisher nicht unbeträchtlich, da für die Durchführung von anspruchsvollen Simulationsanwendungen spezifische Kenntnisse, spezielle Software und hohe Rechenleistung erforderlich sind. Die wachsende Leistungsfähigkeit preisgünstiger Rechnersysteme hat in der jüngsten Zeit aber insbesondere den dritten dieser Kostenfaktoren positiv beeinflußt. Damit ist ein wirtschaftlicher Simulationseinsatz zunehmend auch in anderen Bereichen und in Klein- und Mittelbetrieben (KMU) möglich. Ein besonders erfolgversprechendes Anwendungsgebiet ist die Planung und Steuerung der Fertigung in produzierenden Betrieben. Für die zunehmend vom Markt geforderte Flexibilität hinsichtlich Produktionsprogramm, Spezialanfertigungen, Fertigstellungsterminen und Auftragsmengen sind nämlich die herkömmlichen Planungs- und Optimierungsverfahren nicht mehr ausreichend.
Dieses Kapitel gibt einen Überblick über die Aufgaben, die bei der Software-Entwicklung zu lösen sind. Abbildung 1.1 zeigt die wichtigsten Abhängigkeiten zwischen den einzelnen Kapiteln. Die Pfeilspitzen in Abb. 1.1 zeigen jeweils auf Elemente, deren Inhalt in dem jeweils anderen benutzt wird. In diesem Kapitel werden die Aufgaben und Probleme der Software-Entwicklung behandelt. Anschließend werden allgemeine Grundprinzipien des Software- Engineerings eingeführt:
Objektorientierung (mit den wichtigsten Symbolen der UML),Qualitätskriterien aus Anwender- und Entwicklersicht,Modularisierung.
Wenn ein Informatiker mit der Titelfrage (oder sonst einer Frage) konfrontiert wird, schaut er zunächst einmal im Internet nach, ob er bei den vielen Informatik-Fakultäten weltweit irgendwo eine passende Antwort findet. Ich habe das natürlich auch getan und — vielleicht liegt das an meiner mangelnden Virtuosität im Umgang mit dem neuen Medium — keine Antwort gefunden. Man findet jede Menge Lehrpläne, Studien-und Prüfungsordnungen und sonst noch einiges, aber was das Fach selber ist, wird als bekannt vorausgesetzt. Man bekommt lediglich mitgeteilt, dass man hier zu diesen und jenen Bedingungen Informatik studieren kann. Die einzige halbwegs einschlägige Aussage, die ich gefunden habe, ist ein strategisches Statement der Informatik-Fakultät der Cornell University [Gries und Personius 98]:
Zur Entstehung des Faches an den deutschen Universitäten
„Wo damals die Grenzen der Wissenschaft waren, da ist jetzt die Mitte“, notiert der Göttinger Mathematiker, Physiker und Schriftsteller Georg Christoph Lichtenberg um 1790. Streng geometrisch wird er es nicht gemeint haben, denn die Wissenschaften vollziehen ihre Grenzverschiebungen und -überschreitungen an den unterschiedlichsten Stellen. Doch selten wird etwas aufgegeben, meist wird akkumuliert. Die junge Wissenschaft der Informatik macht da keine Ausnahme. Ihre Geltungsansprüche wachsen so schnell, dass sie auch von ihren Betreibern gelegentlich als überzogen empfunden werden.
In multicast communication, it is often required that feedback is received from a potentially very large group of responders while at the same time a feedback implosion needs to be prevented. To this end, a number of feedback control mechanisms have been proposed, which rely either on tree-based feedback aggregation or timer-based feedback suppression. Usually, these mechanisms assume that it is not necessary to discriminate between feedback from different receivers. However, for many applications this is not the case and feedback from receivers with certain response values is preferred (e.g., highest loss or largest delay).In this paper, we present modifications to timer-based feedback suppression mechanisms that introduce such a preference scheme to differentiate between receivers. The modifications preserve the desirable characteristic of reliably preventing a feedback implosion.
Security functions are of critical importance for the acceptance of Active Networks in practice: network nodes must be protected from malicious code, and they should account for the cost of executing code; this also helps to prevent denial-of-service attacks. For the payment function code packets must carry some form of light-weight electronic cash. Cryptographic schemes can be used to solve both the security and the payment/resource management problem. In this paper we propose to combine cryptographic algorithms in order to solve both problems in an integrated way. Our scheme is secure, light-weight and efficient: It saves space in the packet headers, and the security is higher than that of separate algorithms for authentication and cost accounting.
In diesem Beitrag wird eine Architektur für eine Softwareumgebung vorgestellt, die die verteilte Lösung typischer Klassen simulationsbasierter ingenieurwissenschaftlicher Optimierungsprobleme auf vernetzten Workstations unterstützt. Die Anforderungen der softwaretechnischen Kopplung von Simulations- und Optimierungssoftware und deren Verteilung werden diskutiert, und anhand dieser Anforderungen wird eine adäquate Architektur entwickelt. Entwurf und Implementierung der Hauptkomponenten — die Simulations- und Optimierungskomponente — sowie deren Integration in diese Architektur werden näher vorgestellt. Auf der Simulationsseite wird dabei ein kommerzielles Finite-Elemente Simulationssystem für Strömungs- und Transportprozesse im Grundwasser eingesetzt. Der Algorithmus auf der Optimierungsseite ist insbesondere für die Lösung simulations-basierter nichtlinearer Optimierungsprobleme unter Nebenbedingungen entworfen und implementiert worden. Mit dem vorgestellten Algorithmus werden Problemstellungen aus dem Grundwassermanagement gelöst.
Soft ware- Entwicklungswerkzeuge werden für verschiedene Aufgaben innerhalb eines Entwicklungsprozesses eingesetzt und dabei von Benutzern mit verschiedenen Rollen genutzt. Im vorliegenden Papier wird ein Dissertationsvorhaben vorgestellt, das es zum Ziel hat, Methoden und Techniken zur Konstruktion von Software-Entwicklungswerkzeugen zu entwickeln. Mit dem vorgestellten Ansatz ist es möglich, mit geringem Aufwand methodenspezifische Upper-CASE-Werkzeuge zu realisieren, die flexibel an rollen- und aufgabenspezifische Anforderungen angepaßt werden können. Zur Unterstützung der Projektdurchführung können Aufgaben in einem Prozeß-Modell beschrieben und ihre Durchführung von einer Prozeß-Maschine gesteuert und überwacht werden. Die verschiedenen Werkzeuge und die Prozeß-Maschine werden über ein Repository integriert, dessen Dienste direkt zur Implementierung der Werkzeug-Funktionalität ausgenutzt werden.
In diesem Kapitel werden wir uns weiter mit der Klasse der regulären Sprachen beschäftigen. Während wir in Kapitel 2 nur akzeptierende Konzepte für diese Klasse, nämlich Varianten von endlichen Automaten, betrachtet haben, führen wir jetzt zwei weitere Konzepte zur Beschreibung dieser Sprachklasse ein: reguläre Ausdrucke und Typ-3-Grammatiken.
Prof. Dr. Gottfried Vossen, Prof. Dr. Kurt-Ulrich Witt
Nachdem wir uns in den vorangegangenen Kapiteln mit Berechenbarkeit beschäftigt und im letzten Kapitel festgestellt haben, dass es nicht entscheidbare Mengen, d. h. nicht berechenbare Probleme gibt, werden wir uns in diesem Kapitel mit berechenbaren Problemen befassen, und zwar mit dem Aufwand für ihre Berechnung. Dabei werden wir uns auf den Rechenzeitaufwand beschränken, d. h. die Anzahl der Schritte, die ein Algorithmus zur Berechnung eines Problems benötigt. Andere Komplexitäten, wie z. B. die Größe des Speicherplatzes, den eine Berechnung benötigt, werden wir nicht betrachten.
Prof. Dr. Gottfried Vossen, Prof. Dr. Kurt-Ulrich Witt
In this paper we propose a visual interface for the specification of predicates to be used in queries on spatio-temporal databases. The approach is based on a visual specification method for temporally changing spatial situations. This extends existing concepts for visual spatial query languages, which are only capable of querying static spatial situations. We outline a preliminary user interface that supports the specification on an intuitive and easily manageable level, and we describe the design of the underlying visual language. The visual notation can be used directly as a visual query interface to spatio-temporal databases, or it can provide predicate specifications that can be integrated into textual query languages leading to heterogeneous languages.
In keinem Bereich werden mittlerweile so viele Fachkräfte gesucht wie im IT-Sektor. IT-Fachleute sind rar und teuer bezahlt, und an den Lehrstühlen fur Informatik sowie Elektro- und Informationstechnik wachsen längst nicht so viele Nachwuchskräfte heran, wie sie die Industrie bräuchte.
Die Erfahrung zeigt, dass kaum ein Student sein Studium innerhalb der von den Fachbereichen angegebenen Regelstudienzeit — 9 Semestern an den Unis und 7 bis 8 Semestern an den FHs — beendet.
In keinem Bereich werden mittlerweile so viele Fachkräfte gesucht wie im IT-Sektor. IT-Fachleute sind rar und teuer bezahlt, und an den Lehrstühlen für Informatik sowie Elektro- und Informationstechnik wachsen längst nicht so viele Nachwuchskräfte heran, wie sie die Industrie bräuchte.
Die Erfahrung zeigt, dass kaum ein Student sein Studium innerhalb der von den Fachbereichen angegebenen Regelstudienzeit — 9 Semestern an den Unis und 7 bis 8 Semestern an den FHs — beendet.
Professor Dr. Hermann Bartmann, Professor Dr. Hermann Simon, Dr. Georg Tacke, Professor Dr. Mathias Erlei, Dr. Udo Schmidt-Mohr, Professor Dr. Eberhard Zur, Professor Dr. Jürgen Weber, Dipl.-Kfm. Peter Engel, Professor Dr. Dietrich Budäus