Skip to main content
main-content

Tipp

Weitere Kapitel dieses Buchs durch Wischen aufrufen

2022 | OriginalPaper | Buchkapitel

2. Praktische Grenzen

verfasst von: Klaus Mainzer, Reinhard Kahle

Erschienen in: Grenzen der KI – theoretisch, praktisch, ethisch

Verlag: Springer Berlin Heidelberg

share
TEILEN

Zusammenfassung

Technisch-praktische Grenzen zeigen sich bei (regelbasierten) Expertensystemen in der Simulation intuitiven Könnens von menschlichen Experten (2.1). Statistisches Lernen liefert nur statistische Korrelationen mit probabilistischen Algorithmen. Für ausgewählte Klassen lassen sich statistische Korrelationen durch kausales Lernen erklären. Neben kausalem Lernen lassen sich auch kontrafaktisches Denken und intentionale Absichten im Baysschen Lernen modellieren (2.2). Das Bayessche Lernen eröffnet Anwendungen von neuronalen Netzen, die sich in der Erkennung komplexer Muster bewähren. Die Parameterexplosion neuronaler Netze, die in der Praxis angewendet werden, erzeugen allerdings eine „Black Box“, die der Erklärung bedarf (2.3). Demgegenüber hängt menschliches Lernen häufig nicht von großen Datenmengen und vielen Trainingsbeispielen ab (2.4). Das Hintergrundwissen spielt eine entscheidende Rolle („Rahmen-Problem“) (2.5).
Fußnoten
1
„...since it seemed to them as sensible as placing monkeys in front of typewriters in order to reproduce all the books in the British Museum.“
 
2
Vgl. Kant: „Anschauungen ohne Begriffe sind blind.“ [20, A 48/B 75]
 
3
Diese Ausführungen folgen K. Mainzer, Quantencomputer. Von der Quantenwelt zur Künstlichen Intelligenz, Springer 2020 [25, S. 129 ff.].
 
4
Beweissuche im mathematischen Sinne scheint kein geeigneter Gegenstand für statistisches Lernen zu sein. Wenn es aber doch gelingen sollte, mit Hilfe von Künstlicher Intelligenz einen Beweis der Riemannschen Vermutung zu finden, wäre sicherlich auch der letzte mathematische Skeptiker von dieser Technologie überzeugt.
 
5
Das Beispiel folgt der englischen Variante in [47, S. 17] und wurde im März 2021 online getestet: https://​translate.​google.​com/​?​hl=​de&​sl=​auto&​tl=​de&​text=​O%20​bir%20​hem%C5%9Fire.​%20​O%20​bir%0Adoktor&​op=​translate. In [47] findet man noch eine Reihe weiterer Beispiele und auch umfangreiche Referenzen zu den entsprechenden Quellen.
 
7
Siehe [48], wo allerdings der schöne Mythos zurückgewiesen wird, daß die Stichprobe auf (vermeintlich überdurchschnittlich reiche und daher zum Konservatismus neigende) Telefonbesitzer beschränkt gewesen sei.
 
8
Diese Diskussion findet einen gewissen Höhepunkt in dem sogenannten Yale shooting problem [51], das gut das philosophische Niveau der Diskussionen in der alten KI illustriert und der namensgebenden amerikanischen Universität einen Platz in dieser Diskussion einräumt.
 
9
Quine gibt seiner persönlichen Meinung dazu wie folgt Ausdruck [53, S. 262]: „Für Attribute als einem Bereich von Entitäten verschieden von Klassen habe ich nicht viel übrig.“
 
Literatur
2.
3.
Zurück zum Zitat Clancey, W. (1983). The epistemology of a rule-based expert system – a framework for explanation, in: AI-Journal 20, 215–293. Clancey, W. (1983). The epistemology of a rule-based expert system – a framework for explanation, in: AI-Journal 20, 215–293.
4.
5.
Zurück zum Zitat Minsky, M. (1975). A framework for representing knowledge, in: P. Winston (ed.), The Psychology of Computer Vision, New York. Minsky, M. (1975). A framework for representing knowledge, in: P. Winston (ed.), The Psychology of Computer Vision, New York.
6.
Zurück zum Zitat Sussmann, G.; Steele, G. (1980). Constraints – a language for expressing almost-hierarchical descriptions, in: AI-Journal 14, 1–39. Sussmann, G.; Steele, G. (1980). Constraints – a language for expressing almost-hierarchical descriptions, in: AI-Journal 14, 1–39.
7.
Zurück zum Zitat Buchanan, B.G.; Sutherland, G.L.; Feigenbaum, E.A. (1969). Heuristic DENDRAL: A program for generating processes in organic chemistry, in: B. Meltzer/D. Michie (eds.), Machine Intelligence 4, Edinburgh. Buchanan, B.G.; Sutherland, G.L.; Feigenbaum, E.A. (1969). Heuristic DENDRAL: A program for generating processes in organic chemistry, in: B. Meltzer/D. Michie (eds.), Machine Intelligence 4, Edinburgh.
8.
Zurück zum Zitat Buchanan, B.G.; Feigenbaum, E.A. (1978). DENDRAL and META-DENDRAL: Their applications dimensions, in: Artificial Intelligence 11, 5–24. CrossRef Buchanan, B.G.; Feigenbaum, E.A. (1978). DENDRAL and META-DENDRAL: Their applications dimensions, in: Artificial Intelligence 11, 5–24. CrossRef
9.
Zurück zum Zitat Newell, A.; Shaw, J.C.; Simon, H.A. (1958). Elements of a theory of human problem solving. Psychological Review, 65(3):151–166. CrossRef Newell, A.; Shaw, J.C.; Simon, H.A. (1958). Elements of a theory of human problem solving. Psychological Review, 65(3):151–166. CrossRef
10.
Zurück zum Zitat Shortliffe, E.H. (1976). Computer-Based Medical Consultations: MYCIN, New York. Shortliffe, E.H. (1976). Computer-Based Medical Consultations: MYCIN, New York.
11.
Zurück zum Zitat Randall, D.; Buchanan, B.G.; Shortliffe, E.H. (1977). Producing rules as a representation for a knowledge-based consultation program, in: Artificial Intelligence 8. Randall, D.; Buchanan, B.G.; Shortliffe, E.H. (1977). Producing rules as a representation for a knowledge-based consultation program, in: Artificial Intelligence 8.
12.
Zurück zum Zitat Carnap, R. (1959). Induktive Logik und Wahrscheinlichkeit, bearbeitet von W. Stegmüller, Wien. CrossRef Carnap, R. (1959). Induktive Logik und Wahrscheinlichkeit, bearbeitet von W. Stegmüller, Wien. CrossRef
13.
Zurück zum Zitat Lindley, D.V. (1965). Introduction to Probability and Statistics from a Bayesian Viewpoint I–II, Cambridge. CrossRef Lindley, D.V. (1965). Introduction to Probability and Statistics from a Bayesian Viewpoint I–II, Cambridge. CrossRef
14.
Zurück zum Zitat Zadeh, L.A. (1975). Fuzzy Sets and their Application to Cognitive and Decision Processes, New York. Zadeh, L.A. (1975). Fuzzy Sets and their Application to Cognitive and Decision Processes, New York.
15.
Zurück zum Zitat de Kleer, J. (1986). An assumption based TMS, in: AI-Journal 28, 127–162. de Kleer, J. (1986). An assumption based TMS, in: AI-Journal 28, 127–162.
16.
Zurück zum Zitat Dreyfus, H.L.; Dreyfus. S.E. (1986). Mind over Machine, New York. Dreyfus, H.L.; Dreyfus. S.E. (1986). Mind over Machine, New York.
17.
Zurück zum Zitat Mainzer, K. (2019). Künstliche Intelligenz. Wann übernehmen die Maschinen? Springer, Berlin. Mainzer, K. (2019). Künstliche Intelligenz. Wann übernehmen die Maschinen? Springer, Berlin.
18.
Zurück zum Zitat Peters, J.; Janzing, D.; Schölkopf, B. (2017). Elements of Causal Inference. Foundations and Learning Algorithms Cambridge (Mass.), 4 f. Peters, J.; Janzing, D.; Schölkopf, B. (2017). Elements of Causal Inference. Foundations and Learning Algorithms Cambridge (Mass.), 4 f.
19.
Zurück zum Zitat Corfield, D.; Schölkopf, B.; Vapnik, V. (2009). Falsificationism and statistical learning theory: Comparing the Popper and Vapnik-Chervonenskis dimensions, in: Journal for the General Philosophy of Science 40 (1), 51–58. CrossRef Corfield, D.; Schölkopf, B.; Vapnik, V. (2009). Falsificationism and statistical learning theory: Comparing the Popper and Vapnik-Chervonenskis dimensions, in: Journal for the General Philosophy of Science 40 (1), 51–58. CrossRef
20.
Zurück zum Zitat Immanuel Kant. (1781). Kritik der reinen Vernunft. Johann Friedrich Hartknoch (A). Zweite Auflage, 1787 (B). Immanuel Kant. (1781). Kritik der reinen Vernunft. Johann Friedrich Hartknoch (A). Zweite Auflage, 1787 (B).
21.
Zurück zum Zitat Peters, J.; Janzing, D.; Schölkopf, B. (2017). Elements of Causal Inference. Foundations and Learning Algorithms Cambridge (Mass.), 6 f. Peters, J.; Janzing, D.; Schölkopf, B. (2017). Elements of Causal Inference. Foundations and Learning Algorithms Cambridge (Mass.), 6 f.
22.
Zurück zum Zitat Pearl, J. (2009). Causality: Models, Reasoning, and Inference, Cambridge (Mass.). Pearl, J. (2009). Causality: Models, Reasoning, and Inference, Cambridge (Mass.).
23.
Zurück zum Zitat Peters, J.; Janzing, D.; Schölkopf, B. (2017). Elements of Causal Inference. Foundations and Learning Algorithms Cambridge (Mass.), 144. Peters, J.; Janzing, D.; Schölkopf, B. (2017). Elements of Causal Inference. Foundations and Learning Algorithms Cambridge (Mass.), 144.
24.
Zurück zum Zitat Schölkopf, B.; Hogg, D.W.; Wang, D.; Foreman-Mackey, D.; Janzing, D.; Simson-Gabriel, C.-J.; Peters, J. (2016). Modeling confounding by half-sibling regression, in: Proceedings of the National Academy of Sciences 113 (27), 7391–7398. CrossRef Schölkopf, B.; Hogg, D.W.; Wang, D.; Foreman-Mackey, D.; Janzing, D.; Simson-Gabriel, C.-J.; Peters, J. (2016). Modeling confounding by half-sibling regression, in: Proceedings of the National Academy of Sciences 113 (27), 7391–7398. CrossRef
25.
Zurück zum Zitat Mainzer, K. (2020). Quantencomputer. Von der Quantenwelt zur Künstlichen Intelligenz, Springer. CrossRef Mainzer, K. (2020). Quantencomputer. Von der Quantenwelt zur Künstlichen Intelligenz, Springer. CrossRef
26.
Zurück zum Zitat Friston, K; Harrison, I.; Penny, W. (2003). Dynamic causal modelling, in: NeuroImage 19, 1273–1302. CrossRef Friston, K; Harrison, I.; Penny, W. (2003). Dynamic causal modelling, in: NeuroImage 19, 1273–1302. CrossRef
27.
Zurück zum Zitat Thomas Bayes. (1763). An Essay towards solving a Problem in the Doctrine of Chances. In: Philosophical Transactions. Band 53, S. 370–418. Thomas Bayes. (1763). An Essay towards solving a Problem in the Doctrine of Chances. In: Philosophical Transactions. Band 53, S. 370–418.
28.
Zurück zum Zitat Mittelstrass, J. (1995). Regulae philosophandi, in: J. Mittelstrass (Hrsg.), Enzyklopädie Philosophie und Wissenschaftstheorie Bd. 3, J.B. Metzler: Stuttgart, 536–537. Mittelstrass, J. (1995). Regulae philosophandi, in: J. Mittelstrass (Hrsg.), Enzyklopädie Philosophie und Wissenschaftstheorie Bd. 3, J.B. Metzler: Stuttgart, 536–537.
29.
Zurück zum Zitat Mainzer, K.; Schröder-Heister, P. (1995). Bayessches Theorem, in: J. Mittelstrass (Hrsg.), Enzyklopädie Philosophie und Wissenschaftstheorie Bd. 1, J.B. Metzler: Stuttgart, 254–256. Mainzer, K.; Schröder-Heister, P. (1995). Bayessches Theorem, in: J. Mittelstrass (Hrsg.), Enzyklopädie Philosophie und Wissenschaftstheorie Bd. 1, J.B. Metzler: Stuttgart, 254–256.
30.
Zurück zum Zitat Skilling, J.; Sibisi, S. (Hrsg.) (1996). Maximum Entropy and Bayesian Methods, Kluwer: Dordrecht. MATH Skilling, J.; Sibisi, S. (Hrsg.) (1996). Maximum Entropy and Bayesian Methods, Kluwer: Dordrecht. MATH
31.
Zurück zum Zitat Baldi, P.; Brunak, S. (2001). Bioinformatics. The Machine Learning Approach, MIT Press: Cambridge MA, 57. MATH Baldi, P.; Brunak, S. (2001). Bioinformatics. The Machine Learning Approach, MIT Press: Cambridge MA, 57. MATH
32.
Zurück zum Zitat Jeffreys, W.H.; Berger, J.O. (1992). Ockham’s razor and Bayesian analysis, in: Americian Science 80 1992, 64–72. Jeffreys, W.H.; Berger, J.O. (1992). Ockham’s razor and Bayesian analysis, in: Americian Science 80 1992, 64–72.
33.
Zurück zum Zitat Baldi, P.; Brunak, S. (2001). Bioinformatics. The Machine Learning Approach, MIT Press: Cambridge MA 2001, 68. MathSciNetMATH Baldi, P.; Brunak, S. (2001). Bioinformatics. The Machine Learning Approach, MIT Press: Cambridge MA 2001, 68. MathSciNetMATH
34.
Zurück zum Zitat Hornik, K.; Stinchcombe, M.; White, H. (1990). Universal approximation of an unknown function and its derivatives using multilayer feedforward networks, in: Neural Networks 3, 551–560. CrossRef Hornik, K.; Stinchcombe, M.; White, H. (1990). Universal approximation of an unknown function and its derivatives using multilayer feedforward networks, in: Neural Networks 3, 551–560. CrossRef
35.
Zurück zum Zitat Minsky, M.; Papert, S. (1969). Perceptrons, Cambridge (Mass.), expanded edition 1988. Minsky, M.; Papert, S. (1969). Perceptrons, Cambridge (Mass.), expanded edition 1988.
36.
Zurück zum Zitat Möller, K.; Paaß, G. (Hrsg.) (1994). Künstliche neuronale Netze: eine Bestandsaufnahme, in: KI – Künstliche Intelligenz 4, 37–61. Möller, K.; Paaß, G. (Hrsg.) (1994). Künstliche neuronale Netze: eine Bestandsaufnahme, in: KI – Künstliche Intelligenz 4, 37–61.
37.
Zurück zum Zitat Rummelhart, D.E.; Hinton, G.E.; Williams, R.J. (1986). Learning representation by back propagating errors, in: Nature 323, 533–536. CrossRef Rummelhart, D.E.; Hinton, G.E.; Williams, R.J. (1986). Learning representation by back propagating errors, in: Nature 323, 533–536. CrossRef
38.
Zurück zum Zitat Hornik, K.; Stinchcombe, M.; White, H. (1989). Multilayer feedforward networks are universal approximators neural networks, in: Neural Networks 2, 359–366. CrossRef Hornik, K.; Stinchcombe, M.; White, H. (1989). Multilayer feedforward networks are universal approximators neural networks, in: Neural Networks 2, 359–366. CrossRef
39.
Zurück zum Zitat Senior, A.W., et al. (2020). Improved protein structure prediction using potentials from deep learning, in: Nature 577 2020, 706–710. CrossRef Senior, A.W., et al. (2020). Improved protein structure prediction using potentials from deep learning, in: Nature 577 2020, 706–710. CrossRef
40.
Zurück zum Zitat Mainzer, K. (2020). Leben als Maschine: Wie entschlüsseln wir den Corona-Code? Von der Systembiologie und Bioinformatik zu Robotik und Künstlicher Intelligenz, Brill Mentis: Paderborn, 127 ff. Mainzer, K. (2020). Leben als Maschine: Wie entschlüsseln wir den Corona-Code? Von der Systembiologie und Bioinformatik zu Robotik und Künstlicher Intelligenz, Brill Mentis: Paderborn, 127 ff.
41.
Zurück zum Zitat Baldi, P.; Brunak, S. (2001). Bioinformatics. The Machine Learning Approach, MIT Press: Cambridge MA, 267. MATH Baldi, P.; Brunak, S. (2001). Bioinformatics. The Machine Learning Approach, MIT Press: Cambridge MA, 267. MATH
42.
Zurück zum Zitat Felsenstein, J. (1981). Evolutionary trees from DNA sequences: A maximum likelihood approach, in: Journal of Molecular Evolution 19, 368–376. MathSciNetCrossRef Felsenstein, J. (1981). Evolutionary trees from DNA sequences: A maximum likelihood approach, in: Journal of Molecular Evolution 19, 368–376. MathSciNetCrossRef
43.
Zurück zum Zitat Poppers, K.R. (1973). Objektive Erkenntnis. Ein evolutionärer Entwurf, Hoffmann und Campe 1993 (1. Ausgabe 1973) Poppers, K.R. (1973). Objektive Erkenntnis. Ein evolutionärer Entwurf, Hoffmann und Campe 1993 (1. Ausgabe 1973)
45.
Zurück zum Zitat Bernhard Riemann. (1860). Über die Anzahl der Primzahlen unter einer gegebenen Größe. Monatsberichte der Königlichen Preußischen Akademie der Wissenschaften zu Berlin, S. 671–680. Bernhard Riemann. (1860). Über die Anzahl der Primzahlen unter einer gegebenen Größe. Monatsberichte der Königlichen Preußischen Akademie der Wissenschaften zu Berlin, S. 671–680.
46.
Zurück zum Zitat Carl Ludwig Siegel. (1966). Über Riemanns Nachlaß zur analytischen Zahlentheorie. Quellen Studien zur Geschichte der Math. Astron. Und Phys. Abt. B: Studien, 2:45–80, 1932. Neu gedruckt in Gesammelte Abhandlungen, Vol. 1. Berlin: Springer-Verlag. Carl Ludwig Siegel. (1966). Über Riemanns Nachlaß zur analytischen Zahlentheorie. Quellen Studien zur Geschichte der Math. Astron. Und Phys. Abt. B: Studien, 2:45–80, 1932. Neu gedruckt in Gesammelte Abhandlungen, Vol. 1. Berlin: Springer-Verlag.
47.
Zurück zum Zitat Frederik Zuiderveen Borgesius. (2018). Discrimination, artificial intelligence, and algorithmic decision-making. Directorate General of Democracy; Council of Europe, Strasbourg. Frederik Zuiderveen Borgesius. (2018). Discrimination, artificial intelligence, and algorithmic decision-making. Directorate General of Democracy; Council of Europe, Strasbourg.
48.
Zurück zum Zitat Maurice C. Bryson. (1976). The literary digest poll: Making of a statistical myth. The American Statistician, 30(4):184–185. Maurice C. Bryson. (1976). The literary digest poll: Making of a statistical myth. The American Statistician, 30(4):184–185.
49.
Zurück zum Zitat Dreyfus, H. (1992). What Computers Still Can’t Do: A Critique of Artificial Reason. MIT Press. Dreyfus, H. (1992). What Computers Still Can’t Do: A Critique of Artificial Reason. MIT Press.
50.
Zurück zum Zitat McCarthy, J.; Hayes, P.J. (1969). Some philosophical problems from the standpoint of artificial intelligence. Machine Intelligence, 4:463–502. MATH McCarthy, J.; Hayes, P.J. (1969). Some philosophical problems from the standpoint of artificial intelligence. Machine Intelligence, 4:463–502. MATH
51.
Zurück zum Zitat Hanks, S.; McDermott, D. (1987). Nonmonotonic logic and temporal projection. Artificial Intelligence, 33(3):379–412. MathSciNetCrossRef Hanks, S.; McDermott, D. (1987). Nonmonotonic logic and temporal projection. Artificial Intelligence, 33(3):379–412. MathSciNetCrossRef
52.
Zurück zum Zitat Aristoteles. (1831). Metaphysik, in Immanuel Bekker (Hg.): Aristotelis opera, 2. Bde., Berlin. Aristoteles. (1831). Metaphysik, in Immanuel Bekker (Hg.): Aristotelis opera, 2. Bde., Berlin.
53.
Zurück zum Zitat Quine, W.V.O. (1969). Grundzüge der Logik. Frankfurt am Main. MATH Quine, W.V.O. (1969). Grundzüge der Logik. Frankfurt am Main. MATH
Metadaten
Titel
Praktische Grenzen
verfasst von
Klaus Mainzer
Reinhard Kahle
Copyright-Jahr
2022
Verlag
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-65011-0_2

Premium Partner