Skip to main content
main-content

Über dieses Buch

Die Informatik ist eine junge Wissenschaft, die sich durch einen rasanten technischen Fortschritt auszeichnet. Dadurch wird häufig übersehen, dass aktuelle Themen eine teilweise lange Entwicklungsgeschichte durchlaufen haben.

Informatikprofessoren der Humboldt-Universität zu Berlin haben zu einigen ihrer aktuellen Arbeitsgebiete die Entwicklungslinien von den Anfängen bis Gegenwart mit einem Ausblick auf die mögliche Zukunft aufgezeichnet.

Dieser spannende und lehrreiche Einblick in die Informatik öffnet die Tür zu einem umfassenden und nicht nur technologisch geprägten Verständnis.

Inhaltsverzeichnis

Frontmatter

Von Algol nach Java: Kontinuität und Wandel von Programmiersprachen

Zusammenfassung
Ein halbes Jahrhundert Entwicklung von höheren Programmiersprachen führte zu einem unübersehbar großen Angebot an derartigen Sprachen. Zur Orientierung ist es hilfreich, verschiedene Sichten zu bemühen: Auf welches Anwendungsgebiet ist eine bestimmte Sprache ausgerichtet? Welche Zusammenhänge bestehen zwischen den Sprachen im Laufe der historischen Entwicklung? Wie klassifizieren Programmiermodelle die Sprachenvielfalt? Die derzeit von Industrie und Wissenschaft am breitesten akzeptierte Sprache Java nimmt Erfahrungen aus 50 Jahren Programmiersprachentwicklung auf — aber auch sie hat ihre Schwächen.
Klaus Bothe

Künstliche Intelligenz zwischen Schach und Fußball

Zusammenfassung
Verständnis wächst mit aktiver Auseinandersetzung: Etwas zu machen, zu beherrschen, bedeutet zugleich besseres Verstehen. Angewandt auf die Erforschung geistiger Prozesse führt das auf die Nachbildung intelligenten Verhaltens mit Maschinen. So ist Künstliche Intelligenz unter drei Aspekten zu sehen: Modellierung von Intelligenz mit dem Ziel, sie besser zu verstehen, Ausnutzung maschineller Leistungsfähigkeit zur Erledigung intelligenter Aufgaben, sowie Kooperation von Mensch und Maschine. Im folgenden wird beschrieben, wie die Forschung zur Künstlichen Intelligenz diese Aspekte in den letzten 50 Jahren verfolgt hat — und wie sich das Bild der (künstlichen) Intelligenz dabei gewandelt hat.
Hans-Dieter Burkhard

Zufällige Graphen

Zusammenfassung
Wie verbreiten sich Viren im Internet? Warum haben einige meiner Freunde viel mehr Freunde als ich? Mit wie vielen Klicks komme ich von einer beliebigen Webseite zu einer anderen? Und wie sieht das in zehn Jahren aus? Wie konstruiert man gute fehlerkorrigierende Codes, mit denen man Nachrichten effizient codieren und decodieren kann? Wieviele zusammenhängende Graphen mit einer bestimmten Knoten- und Kantenzahl gibt es? Wie generiert man aussagekräftige Testinstanzen für Algorithmen? — Fragen dieser Art motivieren die Untersuchung zufälliger Graphen. In diesem Artikel skizzieren wir, wie sich die Theorie derselben von einem reinen Hilfsmittel für mathematische Existenzbeweise zu einem mächtigen Werkzeug entwickelt hat, dessen Anwendungen in der Informatik von der Analyse von Algorithmen bis zur Beschreibung des Internets reichen.
Amin Coja-Oghlan, Michael Behrisch

Speicher-Medium

Zusammenfassung
In einer Gerätegeschichte der Informatik sind Speicher so wichtig wie Prozessoren, Systeme oder Netze. Zeigten die primären, sekundären und tertiären Speicher nicht ein Wachstum, das mit dem Mooreschen Gesetz vergleichbar ist, gäbe es zwar schnelle Rechner, aber keine Digitalen Medien. Der jahrzehntelange Wettstreit zwischen magnetischen, optischen und mikroelektronischen Speichern ist noch längst nicht entschieden. Sicher ist nur, daß die Speicherdichten auf vorherseh-bare Zeit weiterhin exponentiell wachsen und sich damit immer neue Anwendungen für die Digitalen Medien ergeben.1
Wolfgang Coy

Was haben Analogrechner und Simula-67 mit modernen Modellierungssprachen zu tun?

Ohne Zusammenfassung
Joachim Fischer

Data Everywhere — Der lange Weg von Datensammlungen zu Datenbanksystemen

Zusammenfassung
In den vergangenen vierzig Jahren hat die Entwicklung im Datenbankbereich dramatische technische Fortschritte gemacht. In diesem Beitrag sollen wesentliche Entwicklungen im Bereich der Datenbanksysteme, aber auch der Entwicklung der Plattentechnologie nachgezeichnet werden, um dem interessierten Leser ein Einblick in das bisher Erreichten zu geben, ohne dass zu viele technische Details präsentiert oder diskutiert werden.
Johann-Christoph Freytag

Kryptographie zwischen Goldkäfer und Primzahlen

Zusammenfassung
Kryptographie ist die Wissenschaft, die technische Zugriffsrechte für Informationen untersucht. Welche Rechte das sind und mit welchen Mitteln man was erreichen kann, ist Gegenstand dieser Vorlesung.
Ernst-Günter Giessmann

Zur Zeit gratis

Von der Turingmaschine zum Quantencomputer — ein Gang durch die Geschichte der Komplexitätstheorie

Zusammenfassung
Die Komplexitätstheorie beschäftigt sich mit der Abschätzung des Aufwandes, welcher zur Lösung algorithmischer Probleme nötig ist. In diesem Aufsatz verfolgen wir die spannende Entwicklung dieses Teilgebiets der Theoretischen Informatik von ihren Wurzeln in den 30er Jahren des 20. Jahrhunderts bis in die heutige Zeit.
Johannes Köbler, Olaf Beyersdorff

A Perspective on Parallel and Distributed Computing

Summary
Trying to compress about 50 year history of parallel and distributed computing (which we call multicomputing for short) is a highly ambitious goal and would require an entire book to give justice to several developments that took place world wide. Instead, in this article in addition to some historical account, the author’s personal perspective is offered which includes experiences with multicom-puting in America, Europe and Japan. Starting from humble beginnings we travel in time through a period of flurry of developments in parallel computing and make an account of key events in distributed computing. Next, through the perspective of our NOMADS (Networks of Mobile Adaptive Dependable Systems) framework which provides the infrastructure for the Service-Oriented Computing, we present our view on today’s computing and also describe the things to come. Some speculations about the future and trends will end with conclusions.
Miroslaw Malek

Signalverarbeitung im Weltraum

Zusammenfassung
Die Raumfahrt hat vielen Wissenschaftsdisziplinen neue Forschungsfelder eröffnet. Nicht nur lebenswissenschaftliche, sondern auch materialwissenschaftliche Experimente versprechen unter den Bedingungen der Schwerelosigkeit neue Erkenntnisse. Während bei medizinischen und biologischen Experimenten der Einfluss der Restbeschleunigung oft vernachlässigbar ist, fordern materialwissenschaftliche Experimente eine genaue Kenntnis der Einflussgröën Beschleunigung und Temperatur. Die Erfassung, Aufbereitung und Verarbeitung dieser zeitabhängigen physikalischen Gröën ist Gegenstand des Forschungsgebiets Signalverarbei- tung, das seit Gründung der Sektion Elektronik im Jahre 1970 an der Humboldt-Universität vertreten ist. In diesem Beitrag werden Messeinrichtungen für die Signale Beschleunigung und Temperatur vorgestellt, die in den Jahren 1980 bis 1993 an der Sektion Elektronik und von 1993 bis 2002 am Institut für Informatik entwickelt wurden.
Beate Meffert, Frank Winkler

Entwicklung der Spielbaum-Suchverfahren: Von Zuses Schachhirn zum modernen Schachcomputer

Zusammenfassung
Moderne Schachprogramme haben eine Spielstärke erreicht, die nur noch von Weltmeistern übertroffen wird — und das auch nicht immer. Die zunehmende Überlegenheit der Maschine über den Menschen ist hauptsächlich zwei Dingen zu verdanken: der enormen Leistungssteigerung der Computer-Hardware und den immer ausgefeilteren Baumsuch-Algorithmen, die den Kern eines jeden Spielprogramms ausmachen. In diesem Artikel diskutieren wir die spannende Entwicklung der Spielbaumsuche, an der so berühmte Computer-Pioniere wie John von Neumann, Konrad Zuse, Alan Turing und Claude Shannon mitgewirkt haben.
Alexander Reinefeld

50 Jahre modellbasierter Entwurf: Vom Modellieren mit Programmen zum Programmieren mit Modellen

Zusammenfassung
Software entwickeln bedeutet, die Kluft zwischen algorithmischen Ideen und implementierten Rechensystemen zu überbrücken. Dafür sind in den letzten 50 Jahren vielfältige Ausdrucksmittel vorgeschlagen worden. Zu Beginn wurden algorithmische Ideen oft programmiersprachlich modelliert. Neuere Ansätze der model driven architecture (MDA) generieren lauffähige Programme aus intuitiv ansprechenden Modellen. Dieser Beitrag beschreibt einige im historischen Kontext wichtige Entwicklungslinien von Modellierungstechniken.
Wolfgang Reisig

Computer Vision im Kontext von Photographie und Photogrammetrie

Zusammenfassung
Digitale Bildverarbeitung, Bildanalyse und Computer Vision sind Teilgebiete der Informatik und haben inzwischen eine Geschichte von mehr als 40 Jahren. Im Rahmen dieser Entwicklung hat sich ein reicher Fundus an unterschiedlichen Technologien und Algorithmen entwickelt.
Unter Computer Vision verstehen wir im Folgenden die Einheit aus Bildverarbeitung, Bildanalyse und Bildverstehen mit dem Ziel sinnvolle Entscheidungen oder Beschreibungen über reale physikalische Objekte und Szenen zu treffen.
Häufig orientiert man sich am biologischen Sehen. Viele Aktivitäten und Forschungszweige versuchen das Sehen mit Kameras und moderner Computertechnik nachzuvollziehen. Ein Beispiel dafür ist das räumliche Sehen (Stereo). Es wurden jedoch auch Technologien entwickelt, die auf völlig anderen Prinzipien basieren. Diese sind zum Beispiel mit dem Begriff active vision verbunden (Laserscanner, Radar).
Computer Vision ist eine aktive wissenschaftliche Disziplin. Anwendungsgebiete finden sich zum Beispiel in der industriellen Bildverarbeitung, Robotik, Überwachung, Luftbildanalyse und der satellitengestützten Fernerkundung sowie der Medizinischen Bildverarbeitung und der Schaffung der Grundlagen für Virtual Reality (Textur und 3D-Informationen).
Damit ist Bildverarbeitung bzw. Computer Vision eine interdisziplinäre Wissenschaft in zweierlei Sinne: Sie speist sich aus unterschiedlichen Wissensgebieten und hat eine entsprechende Ausstrahlung in andere Fachgebiete.
Im Rahmen dieses Beitrages sollen die historischen Einflüsse auf das Fachgebiet „Computer Vision“ beschrieben werden. Zu den naheliegenden Fachgebieten gehören insbesondere die Fotografie und Photogrammetrie als wichtige Grundlage für die Bildaufnahme und Bildverarbeitung.
Ralf Reulke, Thomas Döring

Softwarequalität — Geschichte und Trends

Zusammenfassung
Kaum eine andere Wissenschaft hat solch einen massiven Einfluss auf den Alltag wie die Informatik. Unsere Umwelt ist von Informatiksystemen geprägt, und wir verlassen uns in zunehmendem Maße auf die korrekte Funktionsweise der zu Grunde liegenden Software. Andererseits sind die täglichen Nachrichten voll von Berichten über Probleme, die durch fehlerhafte Software verursacht wurden — vom lästigen „schweren Ausnahmefehler“ in einem Textverarbeitungsprogramm bis hin zum millionenschweren Versagen einer Satellitensteuerung. In diesem Beitrag soll gezeigt werden, dass die Suche nach geeigneten Verfahren zur Sicherung der Softwarequalität seit Beginn der Informatik ein inhärenter Bestandteil der Forschung ist. Bereits bei den ersten Computern war die Programmierung ein kritischer Aspekt, und hundertprozentig korrekte Programme sind seit je eher die Ausnahme als die Regel. Andererseits wurde in den vergangenen fünfzig Jahren eine Reihe von Methoden zur Spezifikation, Verifikation und zum Test von Software entwickelt, mit denen sich beachtliche Qualitätssteigerungen erzielen lassen. In diesem Beitrag schildern wir einige historische Wurzeln und aktuelle Entwicklungen auf dem Gebiet der Qualitätssicherung von Software.
Bernd-Holger Schlingloff
Weitere Informationen