Skip to main content
Top

2024 | OriginalPaper | Chapter

16. Das Leistungspotential der Künstlichen Intelligenz im 21. Jahrhundert – eine Analyse unter Berücksichtigung von Machine Learning und seinem Einsatz in modernen ERP-Systemen

Authors : Reinhard Schütte, Mohamed Kari

Published in: Produktions- und Informationsmanagement

Publisher: Springer Fachmedien Wiesbaden

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

„Der Begriff ‚Künstliche Intelligenz‘ findet in der betriebswirtschaftlichen Diskussion zunehmende Beachtung […] Das Interesse an dieser Thematik spannt einen weiten Bogen: Er beginnt bei der technischen, insbesondere informatikorientierten Euphorie, der zufolge von der Schließung der Intelligenzlücke zwischen Menschen und Automaten ausgegangen wird. Er endet bei der […] Skepsis, ob das technisch Mögliche unreflektiert mit dem zivilisatorisch Wünschenswerten gleichgesetzt werden solle“. Mit diesen brandaktuellen Worten beginnt das erste Kapitel der 1986 vorgelegten Dissertation des Laureats dieses Liber Amicorums.

Dont have a licence yet? Then find out more about our products and how to get one now:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Footnotes
3
so geschehen etwa beim 1928 von Dirac beschriebenen, aber erst 1932 von Anderson experimentell nachgewiesenen Positron (https://​timeline.​web.​cern.​ch/​carl-anderson-discovers-positron), und beim 1964 von Higgs beschriebenen aber erst 2012 vom CERN mit dem LHC experimentell nachgewiesenen Higgs-Boson (https://​home.​web.​cern.​ch/​science/​physics/​higgs-boson).
 
4
Die Vielfalt und Unterschiedlichkeit der regelmäßig unter KI subsumierten Anwendungen ist aber interessanterweise auch ein Spiegelbild der Vielfalt menschlicher Facetten der Intelligenz (siehe zu dieser Vielfalt menschlicher Intelligenzfacetten z. B. auch Zelewski 1986 S. 119) und die damit zunehmende Unschärfe könnte damit gerade auch als Argument der Annäherung dienen.
 
5
Die aktuellen LLMs umfassen insbesondere Transformer-basierte Single Learners und Ensembles in der Größenordnung von 10^11 Parametern (etwa proprietäre Produkte wie OpenAI ChatGPT on GPT-4, Google Gemini 1.5, und Anthropic Claude 2, sowie Open-Source-Projekten wie Meta LLaMA 2 und Mistral 8 × 7B).
 
8
Es sei vorab angemerkt, dass diese Problemklassen auf unterschiedlichen Abstraktionsniveaus angesiedelt sind. Während das Supervised-Learning einer formalen Definition unter Annahme eines Datensatzes folgt, wird das Unsupervised Learning als allein in seiner Negativabgrenzung zum Supervised Learning verstanden. Das Reinformcent Learning folgt einer Definition, die die Annahme eines Datensatz schlechtdingers verwirft, aber in diesem Rahmen klar formalisierbar ist.
 
9
In der Tat wirft die prompt-basierte Inzentivierung bereits Fragen auf. So kann ein LLM statistisch signifikant bessere Ergebnisse erzielen wenn im Prompt das Versprechen von Weltfrieden oder Tickets zu einem Taylor-Swift-Konzert zur positiven Inzentivierung inkludiert wird, oder ein negative Prompting mittels der Worte „YOU WILL DIE“ stattindet (https://​twitter.​com/​venturetwins/​status/​1761443272596291​920).
 
12
Die gesamte Konversation ist hier zu finden: https://​chat.​openai.​com/​share/​b323372b-2df5-4228-87a1-9e5e8e6d78a5 (erzeugt am 01.03.2024).
 
15
Die in der Arbeit vorgenommenen Abstraktionen sind im Zeitverlauf so beständig, dass sie die denkmöglichen und erwartbaren Wirkweisen intelligenter technischer Systeme in den sozialen, produktiven System der Betriebe mit mehr Gültigkeit beschreiben, als jede heute angefertigte Strategieberatungspräsentation zum KI-Einsatz je erahnen lassen würde. Auch der holistisch-umfassende Anspruch, dem die Arbeit gerecht zu werden vermag, ist in den heutigen wissenschaftlichen, hochspezialiseirten Papern natürlich aus mehr oder weniger legitimen Gründen vergeblich zu suchen.
 
18
ebd.
 
20
alle Preise vom 3. März 2024.
 
32
https://​www.​bbc.​com/​news/​technology-64538604. 'Google killer' ChatGPT sparks AI chatbot race.
 
36
Tatsächlich ist aber die resultierenden Qualitätsverbesserung in der Infrastruktur ebenso indirekt und intangibel wie es Brynjolfsson et al. (2019) als Kernproblematik zur Messung der KI-evozierten Produktivitätsveränderung herausarbeiten. So stellt der Wunsch der Quantifizierung von Qualitäten bei IT-Systemen fast immer ein Problem dar. Ungeachtet dieser Schwierigkeit kann die Relevanz mancher Qualitäten „als notwendige Bedingung“ aber nicht bestritten werden.
 
37
Der klassische Begriff der Maschinenlesbarkeit erscheint angesichts von KI verfehlt.
 
40
Das Informationssystem wird hier in Anlehnung an Zelewski (1986, S. 508) verstanden als die Gesamtheit aller Aufgaben, die die Realisierung von Geschäftsprozessen gedanklich vorwegnehmen, begleiten, oder auswerten.
 
Literature
go back to reference Andrew, B., & Richard, S. (1992). Reinforcement Learning: An Introduction. Andrew, B., & Richard, S. (1992). Reinforcement Learning: An Introduction.
go back to reference Arık, S. Ö., Chrzanowski, M., Coates, A., Diamos, G., Gibiansky, A., Kang, Y., Li, X., Miller, J., Ng, A., Raiman, J. & Sengupta, S. (2017). Deep voice: Real-time neural text-to-speech. In International conference on machine learning (S. 195–204). PMLR. Arık, S. Ö., Chrzanowski, M., Coates, A., Diamos, G., Gibiansky, A., Kang, Y., Li, X., Miller, J., Ng, A., Raiman, J. & Sengupta, S. (2017). Deep voice: Real-time neural text-to-speech. In International conference on machine learning (S. 195–204). PMLR.
go back to reference Bengio, Y., & LeCun, Y. (2007). Scaling learning algorithms toward AI. Bengio, Y., & LeCun, Y. (2007). Scaling learning algorithms toward AI.
go back to reference Bengio, Y. (2009). Learning deep architectures for AI. Foundations and trends® in Machine Learning, 2(1), 1–127. Bengio, Y. (2009). Learning deep architectures for AI. Foundations and trends® in Machine Learning, 2(1), 1–127.
go back to reference Bengio, Y., Courville, A., & Vincent, P. (2013). Representation learning: A review and new perspectives. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(8), 1798–1828. Bengio, Y., Courville, A., & Vincent, P. (2013). Representation learning: A review and new perspectives. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(8), 1798–1828.
go back to reference Bergstra, J., & Bengio, Y. (2012). Random search for hyper-parameter optimization. Journal of Machine Learning Research, 13(2). Bergstra, J., & Bengio, Y. (2012). Random search for hyper-parameter optimization. Journal of Machine Learning Research, 13(2).
go back to reference Bethge, D., Hallgarten, P., Grosse-Puppendahl, T., Kari, M., Chuang, L.L., Özdenizci, O., & Schmidt, A. (2022, October). EEG2Vec: Learning affective EEG representations via variational autoencoders. In 2022 IEEE International Conference on Systems, Man, and Cybernetics (SMC) (S. 3150–3157). IEEE. Bethge, D., Hallgarten, P., Grosse-Puppendahl, T., Kari, M., Chuang, L.L., Özdenizci, O., & Schmidt, A. (2022, October). EEG2Vec: Learning affective EEG representations via variational autoencoders. In 2022 IEEE International Conference on Systems, Man, and Cybernetics (SMC) (S. 3150–3157). IEEE.
go back to reference Bojarski, M., Del Testa, D., Dworakowski, D., Firner, B., Flepp, B., Goyal, P., Jackel, L.D., Monfort, M., Muller, U., Zhang, J., & Zhang, X. (2016). End to end learning for self-driving cars. arXiv preprint arXiv:1604.07316. Bojarski, M., Del Testa, D., Dworakowski, D., Firner, B., Flepp, B., Goyal, P., Jackel, L.D., Monfort, M., Muller, U., Zhang, J., & Zhang, X. (2016). End to end learning for self-driving cars. arXiv preprint arXiv:​1604.​07316.
go back to reference Boser, B. E., Guyon, I. M., & Vapnik, V. N. (1992, July). A training algorithm for optimal margin classifiers. In Proceedings of the fifth annual workshop on Computational learning theory (S. 144–152). Boser, B. E., Guyon, I. M., & Vapnik, V. N. (1992, July). A training algorithm for optimal margin classifiers. In Proceedings of the fifth annual workshop on Computational learning theory (S. 144–152).
go back to reference Breiman, L. (2001). Random forests. Machine Learning, 45, 5–32. Breiman, L. (2001). Random forests. Machine Learning, 45, 5–32.
go back to reference Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., & Agarwal, S. (2020). Language models are few-shot learners. In Advances in Neural Information Processing Systems, 33, 1877–1901. Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., & Agarwal, S. (2020). Language models are few-shot learners. In Advances in Neural Information Processing Systems, 33, 1877–1901.
go back to reference Brynjolfsson, E., Rock, D., & Syverson, C. (2019). Artificial intelligence and the modern productivity paradox. In E. Brynjolfsson & J. Zittrain (Hrsg.), The Economics of Artificial Intelligence: An Agenda (S. 23–57). Brynjolfsson, E., Rock, D., & Syverson, C. (2019). Artificial intelligence and the modern productivity paradox. In E. Brynjolfsson & J. Zittrain (Hrsg.), The Economics of Artificial Intelligence: An Agenda (S. 23–57).
go back to reference Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., Lee, P., Lee, Y. T., Li, Y., Lundberg, S., & Nori, H. (2023). Sparks of artificial general intelligence: Early experiments with gpt-4. arXiv preprint arXiv:2303.12712. Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., Lee, P., Lee, Y. T., Li, Y., Lundberg, S., & Nori, H. (2023). Sparks of artificial general intelligence: Early experiments with gpt-4. arXiv preprint arXiv:​2303.​12712.
go back to reference Brynjolfsson, E., Hitt, L. M., & Yang, S. (2002). Intangible assets: Computers and organizational capital. Brookings Papers on Economic Activity, 2002(1), 137–181. Brynjolfsson, E., Hitt, L. M., & Yang, S. (2002). Intangible assets: Computers and organizational capital. Brookings Papers on Economic Activity, 2002(1), 137–181.
go back to reference Chen, T., & Guestrin, C. (2016, August). Xgboost: A scalable tree boosting system. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (S. 785–794). Chen, T., & Guestrin, C. (2016, August). Xgboost: A scalable tree boosting system. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (S. 785–794).
go back to reference Cheng, T., Song, L., Ge, Y., Liu, W., Wang, X., & Shan, Y. (2024). YOLO-World: Real-Time Open-Vocabulary Object Detection. arXiv preprint arXiv:2401.17270. Cheng, T., Song, L., Ge, Y., Liu, W., Wang, X., & Shan, Y. (2024). YOLO-World: Real-Time Open-Vocabulary Object Detection. arXiv preprint arXiv:​2401.​17270.
go back to reference Chorowski, J. K., Bahdanau, D., Serdyuk, D., Cho, K. & Bengio, Y. (2015). Attention-based models for speech recognition. In Advances in Neural Information Processing Systems, 28. Chorowski, J. K., Bahdanau, D., Serdyuk, D., Cho, K. & Bengio, Y. (2015). Attention-based models for speech recognition. In Advances in Neural Information Processing Systems, 28.
go back to reference Chowdhery, A., Narang, S., Devlin, J., Bosma, M., Mishra, G., Roberts, A., Barham, P., Chung, H. W., Sutton, C., Gehrmann, S., & Schuh, P. (2023). Palm: Scaling language modeling with pathways. Journal of Machine Learning Research, 24(240), 1–113. Chowdhery, A., Narang, S., Devlin, J., Bosma, M., Mishra, G., Roberts, A., Barham, P., Chung, H. W., Sutton, C., Gehrmann, S., & Schuh, P. (2023). Palm: Scaling language modeling with pathways. Journal of Machine Learning Research, 24(240), 1–113.
go back to reference Corso, G., Stärk, H., Jing, B., Barzilay, R. & Jaakkola, T. (2023). DiffDock: Diffusion Steps, Twists, and Turns for Molecular Docking.. International Conference on Learning Representations (ICLR). Corso, G., Stärk, H., Jing, B., Barzilay, R. & Jaakkola, T. (2023). DiffDock: Diffusion Steps, Twists, and Turns for Molecular Docking.. International Conference on Learning Representations (ICLR).
go back to reference Dean, J., Corrado, G., Monga, R., Chen, K., Devin, M., Mao, M., Ranzato, M. A., Senior, A., Tucker, P., Yang, K. & Le, Q. (2012). Large scale distributed deep networks. In Advances in Neural Information Processing Systems, 25. Dean, J., Corrado, G., Monga, R., Chen, K., Devin, M., Mao, M., Ranzato, M. A., Senior, A., Tucker, P., Yang, K. & Le, Q. (2012). Large scale distributed deep networks. In Advances in Neural Information Processing Systems, 25.
go back to reference Devlin, J., Chang, M. W., Lee, K. & Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805. Devlin, J., Chang, M. W., Lee, K. & Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:​1810.​04805.
go back to reference Garcez, A. D. A., Bader, S., Bowman, H., Lamb, L. C., de Penning, L., Illuminoo, B. V., Poon, H., & Zaverucha, C. G. (2022). Neural-symbolic learning and reasoning: A survey and interpretation. Neuro-Symbolic Artificial Intelligence: The State of the Art, 342(1), 327. Garcez, A. D. A., Bader, S., Bowman, H., Lamb, L. C., de Penning, L., Illuminoo, B. V., Poon, H., & Zaverucha, C. G. (2022). Neural-symbolic learning and reasoning: A survey and interpretation. Neuro-Symbolic Artificial Intelligence: The State of the Art, 342(1), 327.
go back to reference Gittins, J. C. (1979). Bandit processes and dynamic allocation indices. Journal of the Royal Statistical Society Series B: Statistical Methodology, 41(2), 148–164. Gittins, J. C. (1979). Bandit processes and dynamic allocation indices. Journal of the Royal Statistical Society Series B: Statistical Methodology, 41(2), 148–164.
go back to reference Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A. & Bengio, Y. (2014). Generative adversarial nets. In Advances in Neural Information Processing Systems, 27. Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A. & Bengio, Y. (2014). Generative adversarial nets. In Advances in Neural Information Processing Systems, 27.
go back to reference Graves, A. & Jaitly, N. (2014). Towards end-to-end speech recognition with recurrent neural networks. In International conference on machine learning (S. 1764–1772). PMLR. Graves, A. & Jaitly, N. (2014). Towards end-to-end speech recognition with recurrent neural networks. In International conference on machine learning (S. 1764–1772). PMLR.
go back to reference Hansen, L. K. & Rieger, L. (2019). Interpretability in intelligent systems–a new concept? In Explainable AI: Interpreting, Explaining and Visualizing Deep Learning (S. 41–49). Hansen, L. K. & Rieger, L. (2019). Interpretability in intelligent systems–a new concept? In Explainable AI: Interpreting, Explaining and Visualizing Deep Learning (S. 41–49).
go back to reference He, K., Zhang, X., Ren, S. & Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition (S. 770–778). He, K., Zhang, X., Ren, S. & Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition (S. 770–778).
go back to reference Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural Computation, 9(8), 1735–1780. Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural Computation, 9(8), 1735–1780.
go back to reference Hornik, K., Stinchcombe, M., & White, H. (1989). Multilayer feedforward networks are universal approximators. Neural Networks, 2(5), 359–366. Hornik, K., Stinchcombe, M., & White, H. (1989). Multilayer feedforward networks are universal approximators. Neural Networks, 2(5), 359–366.
go back to reference Jordan, M. I., & Mitchell, T. M. (2015). Machine learning: Trends, perspectives, and prospects. Science, 349(6245), 255–260. Jordan, M. I., & Mitchell, T. M. (2015). Machine learning: Trends, perspectives, and prospects. Science, 349(6245), 255–260.
go back to reference Kari, M. (2019). KI zur Fahrzeugdatenverarbeitung unter Berücksichtigung von Connected Fleet Learning. Masterarbeit: Universität Duisburg-Essen. Kari, M. (2019). KI zur Fahrzeugdatenverarbeitung unter Berücksichtigung von Connected Fleet Learning. Masterarbeit: Universität Duisburg-Essen.
go back to reference Kingma, D. P., & Ba, J. (2015). Adam: A method for stochastic optimization. In International Conference on Learning Representations (ICLR). Kingma, D. P., & Ba, J. (2015). Adam: A method for stochastic optimization. In International Conference on Learning Representations (ICLR).
go back to reference Kirschstein, T., Giebenhain, S., & Nießner, M. (2023). DiffusionAvatars: Deferred Diffusion for High-fidelity 3D Head Avatars. arXiv preprint arXiv:2311.18635. Kirschstein, T., Giebenhain, S., & Nießner, M. (2023). DiffusionAvatars: Deferred Diffusion for High-fidelity 3D Head Avatars. arXiv preprint arXiv:​2311.​18635.
go back to reference Kneissler, M. (1983). Der Computer wird immer intelligenter. In: Quick, Ausgave vom 17.11.1983 (47), 57–59. Kneissler, M. (1983). Der Computer wird immer intelligenter. In: Quick, Ausgave vom 17.11.1983 (47), 57–59.
go back to reference Kolesnikov, A., Zhai, X., & Beyer, L. (2019). Revisiting self-supervised visual representation learning. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (S. 1920–1929). Kolesnikov, A., Zhai, X., & Beyer, L. (2019). Revisiting self-supervised visual representation learning. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (S. 1920–1929).
go back to reference Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. In Advances in Neural Information Processing Systems, 25. Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. In Advances in Neural Information Processing Systems, 25.
go back to reference LeCun, Y., Bottou, L., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278–2324. LeCun, Y., Bottou, L., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278–2324.
go back to reference LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444. LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444.
go back to reference Luong, M. T., Pham, H., & Manning, C. D. (2015). Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025. Luong, M. T., Pham, H., & Manning, C. D. (2015). Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:​1508.​04025.
go back to reference McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The Bulletin of Mathematical Biophysics, 5, 115–133. McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The Bulletin of Mathematical Biophysics, 5, 115–133.
go back to reference Minsky, M. (1961). Steps toward artificial intelligence. Proceedings of the IRE, 49(1), 8–30. Minsky, M. (1961). Steps toward artificial intelligence. Proceedings of the IRE, 49(1), 8–30.
go back to reference Mitchell, T. M. (2006). The discipline of machine learning (Bd. 9, S. 3). Pittsburgh: Carnegie Mellon University, School of Computer Science, Machine Learning Department. Mitchell, T. M. (2006). The discipline of machine learning (Bd. 9, S. 3). Pittsburgh: Carnegie Mellon University, School of Computer Science, Machine Learning Department.
go back to reference Mnih, V., Kavukcuoglu, K., Silver, D., Graves, A., Antonoglou, I., Wierstra, D., & Riedmiller, M. (2013). Playing atari with deep reinforcement learning. arXiv preprint arXiv:1312.5602. Mnih, V., Kavukcuoglu, K., Silver, D., Graves, A., Antonoglou, I., Wierstra, D., & Riedmiller, M. (2013). Playing atari with deep reinforcement learning. arXiv preprint arXiv:​1312.​5602.
go back to reference Monett, D., Lewis, C. W., Thórisson, K. R., Bach, J., Baldassarre, G., Granato, G., Berkeley, I. S., Chollet, F., Crosby, M., & Shevlin, H. (2020). Introduction to the JAGI special issue ‘On defining artificial intelligence’–commentaries and author’s response. Journal of Artificial General Intelligence, 11(2), 1–100. Monett, D., Lewis, C. W., Thórisson, K. R., Bach, J., Baldassarre, G., Granato, G., Berkeley, I. S., Chollet, F., Crosby, M., & Shevlin, H. (2020). Introduction to the JAGI special issue ‘On defining artificial intelligence’–commentaries and author’s response. Journal of Artificial General Intelligence, 11(2), 1–100.
go back to reference Ng, A. Y. (1997, July). Preventing “overfitting” of cross-validation data. In ICML (Bd. 97, S. 245–253). Ng, A. Y. (1997, July). Preventing “overfitting” of cross-validation data. In ICML (Bd. 97, S. 245–253).
go back to reference Ng, A., & Jordan, M. (2001). On discriminative vs. generative classifiers: A comparison of logistic regression and naive bayes. Advances in Neural Information Processing Systems, 14. Ng, A., & Jordan, M. (2001). On discriminative vs. generative classifiers: A comparison of logistic regression and naive bayes. Advances in Neural Information Processing Systems, 14.
go back to reference Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., Ray, A., & Schulman, J. (2022). Training language models to follow instructions with human feedback. Advances in Neural Information Processing Systems, 35, 27730–27744. Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., Ray, A., & Schulman, J. (2022). Training language models to follow instructions with human feedback. Advances in Neural Information Processing Systems, 35, 27730–27744.
go back to reference Ronneberger, O., Fischer, P., & Brox, T. (2015). U-net: Convolutional networks for biomedical image segmentation. In O. Golland, N. Hata, C. Barillot, J. Hornegger, & R. Howe (Hrsg.), Medical image computing and computer-assisted intervention–MICCAI 2015: 18th international conference, Munich, Germany, October 5–9, 2015, proceedings, part III (S. 234–241). Springer International Publishing. Ronneberger, O., Fischer, P., & Brox, T. (2015). U-net: Convolutional networks for biomedical image segmentation. In O. Golland, N. Hata, C. Barillot, J. Hornegger, & R. Howe (Hrsg.), Medical image computing and computer-assisted intervention–MICCAI 2015: 18th international conference, Munich, Germany, October 5–9, 2015, proceedings, part III (S. 234–241). Springer International Publishing.
go back to reference Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6), 386. Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6), 386.
go back to reference Roziere, B., Gehring, J., Gloeckle, F., Sootla, S., Gat, I., Tan, X. E., Adi, Y., Liu, J., Remez, T., Rapin, J., & Kozhevnikov, A. (2023). Code llama: Open foundation models for code. arXiv preprint arXiv:2308.12950. Roziere, B., Gehring, J., Gloeckle, F., Sootla, S., Gat, I., Tan, X. E., Adi, Y., Liu, J., Remez, T., Rapin, J., & Kozhevnikov, A. (2023). Code llama: Open foundation models for code. arXiv preprint arXiv:​2308.​12950.
go back to reference Russell, S., & Norvig, P. (1995). Artificial intelligence – A modern approach. Prentice Hall, Englewood Cliffs, New Jersey. Russell, S., & Norvig, P. (1995). Artificial intelligence – A modern approach. Prentice Hall, Englewood Cliffs, New Jersey.
go back to reference Samek, W., Montavon, G., Vedaldi, A., Hansen, L. K., & Müller, K. R. (Hrsg.). (2019). Explainable AI: Interpreting, Explaining and Visualizing Deep Learning (Bd. 11700). Springer Nature. Samek, W., Montavon, G., Vedaldi, A., Hansen, L. K., & Müller, K. R. (Hrsg.). (2019). Explainable AI: Interpreting, Explaining and Visualizing Deep Learning (Bd. 11700). Springer Nature.
go back to reference Schmidhuber, J. (2015). Deep learning in neural networks: An overview. Neural Networks, 61, 85–117. Schmidhuber, J. (2015). Deep learning in neural networks: An overview. Neural Networks, 61, 85–117.
go back to reference Schulman, J., Wolski, F., Dhariwal, P., Radford, A., & Klimov, O. (2017). Proximal policy optimization algorithms. arXiv preprint arXiv:1707.06347. Schulman, J., Wolski, F., Dhariwal, P., Radford, A., & Klimov, O. (2017). Proximal policy optimization algorithms. arXiv preprint arXiv:​1707.​06347.
go back to reference Silver, D., Huang, A., Maddison, C. J., Guez, A., Sifre, L., Van Den Driessche, G., Schrittwieser, J., Antonoglou, I., Panneershelvam, V., Lanctot, M., & Dieleman, S. (2016). Mastering the game of Go with deep neural networks and tree search. Nature, 529(7587), 484–489. Silver, D., Huang, A., Maddison, C. J., Guez, A., Sifre, L., Van Den Driessche, G., Schrittwieser, J., Antonoglou, I., Panneershelvam, V., Lanctot, M., & Dieleman, S. (2016). Mastering the game of Go with deep neural networks and tree search. Nature, 529(7587), 484–489.
go back to reference Srivastava, A., Rastogi, A., Rao, A., Shoeb, A. A. M., Abid, A., Fisch, A., Brown, A. R., et al. (2022). Beyond the imitation game: Quantifying and extrapolating the capabilities of language models. arXiv preprint arXiv:2206.04615. Srivastava, A., Rastogi, A., Rao, A., Shoeb, A. A. M., Abid, A., Fisch, A., Brown, A. R., et al. (2022). Beyond the imitation game: Quantifying and extrapolating the capabilities of language models. arXiv preprint arXiv:​2206.​04615.
go back to reference Sutton, R. S., & Andrew, G. B. (2018). Reinforcement Learning: An Introduction.. Second Edition. MIT Press, Cambridge, MA. Sutton, R. S., & Andrew, G. B. (2018). Reinforcement Learning: An Introduction.. Second Edition. MIT Press, Cambridge, MA.
go back to reference Sutskever, I., Martens, J., Dahl, G., & Hinton, G. (2013, May). On the importance of initialization and momentum in deep learning. In International Conference on Machine Learning (S. 1139–1147). PMLR. Sutskever, I., Martens, J., Dahl, G., & Hinton, G. (2013, May). On the importance of initialization and momentum in deep learning. In International Conference on Machine Learning (S. 1139–1147). PMLR.
go back to reference Szegedy, C., Zaremba, W., Sutskever, I., Bruna, J., Erhan, D., Goodfellow, I., & Fergus, R. (2013). Intriguing properties of neural networks. arXiv preprint arXiv:1312.6199. Szegedy, C., Zaremba, W., Sutskever, I., Bruna, J., Erhan, D., Goodfellow, I., & Fergus, R. (2013). Intriguing properties of neural networks. arXiv preprint arXiv:​1312.​6199.
go back to reference Takagi, Y., & Nishimoto, S. (2023). High-resolution image reconstruction with latent diffusion models from human brain activity. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (S. 14453–14463). Takagi, Y., & Nishimoto, S. (2023). High-resolution image reconstruction with latent diffusion models from human brain activity. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (S. 14453–14463).
go back to reference Touvron, H., Martin, L., Stone, K., Albert, P., Almahairi, A., Babaei, Y., Bashlykov, N., Batra, S., Bhargava, P., Bhosale, S., & Bikel, D. (2023). Llama 2: Open foundation and fine-tuned chat models. arXiv preprint arXiv:2307.09288. Touvron, H., Martin, L., Stone, K., Albert, P., Almahairi, A., Babaei, Y., Bashlykov, N., Batra, S., Bhargava, P., Bhosale, S., & Bikel, D. (2023). Llama 2: Open foundation and fine-tuned chat models. arXiv preprint arXiv:​2307.​09288.
go back to reference Vapnik, V. (1995). The nature of statistical learning theory. Springer. Vapnik, V. (1995). The nature of statistical learning theory. Springer.
go back to reference Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. In Advances in Neural Information Processing Systems, 30. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. In Advances in Neural Information Processing Systems, 30.
go back to reference Wang, P. (2019). On defining artificial intelligence. Journal of Artificial General Intelligence, 11(2), 73–86. Wang, P. (2019). On defining artificial intelligence. Journal of Artificial General Intelligence, 11(2), 73–86.
go back to reference Wang, P. (2020). On Defining Artificial Intelligence—Author’s Response to Commentaries. Journal of Artificial General Intelligence, 11(2). Wang, P. (2020). On Defining Artificial Intelligence—Author’s Response to Commentaries. Journal of Artificial General Intelligence, 11(2).
go back to reference Witte, T. (1979). Heuristisches Planen. Vorgehensweisen zur Strukturierung betrieblicher Planungsprobleme. Springer Fachmedien Wiesbaden 1979. Witte, T. (1979). Heuristisches Planen. Vorgehensweisen zur Strukturierung betrieblicher Planungsprobleme. Springer Fachmedien Wiesbaden 1979.
go back to reference Yang, M., Cho, K., Merchant, A., Abbeel, P., Schuurmans, D., Mordatch, I., & Cubuk, E. D. (2023). Scalable diffusion for materials generation. arXiv preprint arXiv:2311.09235. Yang, M., Cho, K., Merchant, A., Abbeel, P., Schuurmans, D., Mordatch, I., & Cubuk, E. D. (2023). Scalable diffusion for materials generation. arXiv preprint arXiv:​2311.​09235.
go back to reference Zelewski, S. (1986). Das Leistungspotential der Künstlichen Intelligenz – Eine informationstechnisch-betriebswirtschaftliche Analyse. Bd. 1, 2 und 3 (1). Witterschlick / Bonn. Zelewski, S. (1986). Das Leistungspotential der Künstlichen Intelligenz – Eine informationstechnisch-betriebswirtschaftliche Analyse. Bd. 1, 2 und 3 (1). Witterschlick / Bonn.
go back to reference Zelewski, S. (1991). Searle’s Wiederbelebung der starken KI-These – Ein Beitrag zur Diskussion des Erkenntnisprogramms der Erforschung Künstlicher Intelligenz (KI). In R. Casati & G. White (Hrsg.), Philosophy and the Cognitive Sciences – Philosophie und die kognitiven Wissenschaften. Papers of the 16th International Wittgenstein Symposium – Beiträge des 16. Internationalen Wittgenstein Symposiums, 15.-22.08.1993 in Kirchberg (S. 611–616). Zelewski, S. (1991). Searle’s Wiederbelebung der starken KI-These – Ein Beitrag zur Diskussion des Erkenntnisprogramms der Erforschung Künstlicher Intelligenz (KI). In R. Casati & G. White (Hrsg.), Philosophy and the Cognitive Sciences – Philosophie und die kognitiven Wissenschaften. Papers of the 16th International Wittgenstein Symposium – Beiträge des 16. Internationalen Wittgenstein Symposiums, 15.-22.08.1993 in Kirchberg (S. 611–616).
go back to reference Zelewski, S. (2008). Grundlagen. In H. Corsten (Hrsg.). Betriebswirtschaftslehre Band 1: Grundlagen; Internes Rechnungswesen; Externes Rechnungswesen; Beschaffung; Produktion und Logistik; Marketing; Investition und Finanzierung (pp. 1–97, 4., vollständig überarbeitete und wesentlich erweiterte Auflage) München: Oldenbourg. Zelewski, S. (2008). Grundlagen. In H. Corsten (Hrsg.). Betriebswirtschaftslehre Band 1: Grundlagen; Internes Rechnungswesen; Externes Rechnungswesen; Beschaffung; Produktion und Logistik; Marketing; Investition und Finanzierung (pp. 1–97, 4., vollständig überarbeitete und wesentlich erweiterte Auflage) München: Oldenbourg.
go back to reference Zhang, A., Lipton, Z. C., Li, M., & Smola, A. J. (2023). Dive into deep learning. Cambridge University Press. Zhang, A., Lipton, Z. C., Li, M., & Smola, A. J. (2023). Dive into deep learning. Cambridge University Press.
Metadata
Title
Das Leistungspotential der Künstlichen Intelligenz im 21. Jahrhundert – eine Analyse unter Berücksichtigung von Machine Learning und seinem Einsatz in modernen ERP-Systemen
Authors
Reinhard Schütte
Mohamed Kari
Copyright Year
2024
DOI
https://doi.org/10.1007/978-3-658-46113-3_16

Premium Partner