Skip to main content

2024 | OriginalPaper | Buchkapitel

16. Das Leistungspotential der Künstlichen Intelligenz im 21. Jahrhundert – eine Analyse unter Berücksichtigung von Machine Learning und seinem Einsatz in modernen ERP-Systemen

verfasst von : Reinhard Schütte, Mohamed Kari

Erschienen in: Produktions- und Informationsmanagement

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

„Der Begriff ‚Künstliche Intelligenz‘ findet in der betriebswirtschaftlichen Diskussion zunehmende Beachtung […] Das Interesse an dieser Thematik spannt einen weiten Bogen: Er beginnt bei der technischen, insbesondere informatikorientierten Euphorie, der zufolge von der Schließung der Intelligenzlücke zwischen Menschen und Automaten ausgegangen wird. Er endet bei der […] Skepsis, ob das technisch Mögliche unreflektiert mit dem zivilisatorisch Wünschenswerten gleichgesetzt werden solle“. Mit diesen brandaktuellen Worten beginnt das erste Kapitel der 1986 vorgelegten Dissertation des Laureats dieses Liber Amicorums.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Fußnoten
3
so geschehen etwa beim 1928 von Dirac beschriebenen, aber erst 1932 von Anderson experimentell nachgewiesenen Positron (https://​timeline.​web.​cern.​ch/​carl-anderson-discovers-positron), und beim 1964 von Higgs beschriebenen aber erst 2012 vom CERN mit dem LHC experimentell nachgewiesenen Higgs-Boson (https://​home.​web.​cern.​ch/​science/​physics/​higgs-boson).
 
4
Die Vielfalt und Unterschiedlichkeit der regelmäßig unter KI subsumierten Anwendungen ist aber interessanterweise auch ein Spiegelbild der Vielfalt menschlicher Facetten der Intelligenz (siehe zu dieser Vielfalt menschlicher Intelligenzfacetten z. B. auch Zelewski 1986 S. 119) und die damit zunehmende Unschärfe könnte damit gerade auch als Argument der Annäherung dienen.
 
5
Die aktuellen LLMs umfassen insbesondere Transformer-basierte Single Learners und Ensembles in der Größenordnung von 10^11 Parametern (etwa proprietäre Produkte wie OpenAI ChatGPT on GPT-4, Google Gemini 1.5, und Anthropic Claude 2, sowie Open-Source-Projekten wie Meta LLaMA 2 und Mistral 8 × 7B).
 
8
Es sei vorab angemerkt, dass diese Problemklassen auf unterschiedlichen Abstraktionsniveaus angesiedelt sind. Während das Supervised-Learning einer formalen Definition unter Annahme eines Datensatzes folgt, wird das Unsupervised Learning als allein in seiner Negativabgrenzung zum Supervised Learning verstanden. Das Reinformcent Learning folgt einer Definition, die die Annahme eines Datensatz schlechtdingers verwirft, aber in diesem Rahmen klar formalisierbar ist.
 
9
In der Tat wirft die prompt-basierte Inzentivierung bereits Fragen auf. So kann ein LLM statistisch signifikant bessere Ergebnisse erzielen wenn im Prompt das Versprechen von Weltfrieden oder Tickets zu einem Taylor-Swift-Konzert zur positiven Inzentivierung inkludiert wird, oder ein negative Prompting mittels der Worte „YOU WILL DIE“ stattindet (https://​twitter.​com/​venturetwins/​status/​1761443272596291​920).
 
12
Die gesamte Konversation ist hier zu finden: https://​chat.​openai.​com/​share/​b323372b-2df5-4228-87a1-9e5e8e6d78a5 (erzeugt am 01.03.2024).
 
15
Die in der Arbeit vorgenommenen Abstraktionen sind im Zeitverlauf so beständig, dass sie die denkmöglichen und erwartbaren Wirkweisen intelligenter technischer Systeme in den sozialen, produktiven System der Betriebe mit mehr Gültigkeit beschreiben, als jede heute angefertigte Strategieberatungspräsentation zum KI-Einsatz je erahnen lassen würde. Auch der holistisch-umfassende Anspruch, dem die Arbeit gerecht zu werden vermag, ist in den heutigen wissenschaftlichen, hochspezialiseirten Papern natürlich aus mehr oder weniger legitimen Gründen vergeblich zu suchen.
 
18
ebd.
 
20
alle Preise vom 3. März 2024.
 
32
https://​www.​bbc.​com/​news/​technology-64538604. 'Google killer' ChatGPT sparks AI chatbot race.
 
36
Tatsächlich ist aber die resultierenden Qualitätsverbesserung in der Infrastruktur ebenso indirekt und intangibel wie es Brynjolfsson et al. (2019) als Kernproblematik zur Messung der KI-evozierten Produktivitätsveränderung herausarbeiten. So stellt der Wunsch der Quantifizierung von Qualitäten bei IT-Systemen fast immer ein Problem dar. Ungeachtet dieser Schwierigkeit kann die Relevanz mancher Qualitäten „als notwendige Bedingung“ aber nicht bestritten werden.
 
37
Der klassische Begriff der Maschinenlesbarkeit erscheint angesichts von KI verfehlt.
 
40
Das Informationssystem wird hier in Anlehnung an Zelewski (1986, S. 508) verstanden als die Gesamtheit aller Aufgaben, die die Realisierung von Geschäftsprozessen gedanklich vorwegnehmen, begleiten, oder auswerten.
 
Literatur
Zurück zum Zitat Andrew, B., & Richard, S. (1992). Reinforcement Learning: An Introduction. Andrew, B., & Richard, S. (1992). Reinforcement Learning: An Introduction.
Zurück zum Zitat Arık, S. Ö., Chrzanowski, M., Coates, A., Diamos, G., Gibiansky, A., Kang, Y., Li, X., Miller, J., Ng, A., Raiman, J. & Sengupta, S. (2017). Deep voice: Real-time neural text-to-speech. In International conference on machine learning (S. 195–204). PMLR. Arık, S. Ö., Chrzanowski, M., Coates, A., Diamos, G., Gibiansky, A., Kang, Y., Li, X., Miller, J., Ng, A., Raiman, J. & Sengupta, S. (2017). Deep voice: Real-time neural text-to-speech. In International conference on machine learning (S. 195–204). PMLR.
Zurück zum Zitat Bengio, Y., & LeCun, Y. (2007). Scaling learning algorithms toward AI. Bengio, Y., & LeCun, Y. (2007). Scaling learning algorithms toward AI.
Zurück zum Zitat Bengio, Y. (2009). Learning deep architectures for AI. Foundations and trends® in Machine Learning, 2(1), 1–127. Bengio, Y. (2009). Learning deep architectures for AI. Foundations and trends® in Machine Learning, 2(1), 1–127.
Zurück zum Zitat Bengio, Y., Courville, A., & Vincent, P. (2013). Representation learning: A review and new perspectives. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(8), 1798–1828. Bengio, Y., Courville, A., & Vincent, P. (2013). Representation learning: A review and new perspectives. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(8), 1798–1828.
Zurück zum Zitat Bergstra, J., & Bengio, Y. (2012). Random search for hyper-parameter optimization. Journal of Machine Learning Research, 13(2). Bergstra, J., & Bengio, Y. (2012). Random search for hyper-parameter optimization. Journal of Machine Learning Research, 13(2).
Zurück zum Zitat Bethge, D., Hallgarten, P., Grosse-Puppendahl, T., Kari, M., Chuang, L.L., Özdenizci, O., & Schmidt, A. (2022, October). EEG2Vec: Learning affective EEG representations via variational autoencoders. In 2022 IEEE International Conference on Systems, Man, and Cybernetics (SMC) (S. 3150–3157). IEEE. Bethge, D., Hallgarten, P., Grosse-Puppendahl, T., Kari, M., Chuang, L.L., Özdenizci, O., & Schmidt, A. (2022, October). EEG2Vec: Learning affective EEG representations via variational autoencoders. In 2022 IEEE International Conference on Systems, Man, and Cybernetics (SMC) (S. 3150–3157). IEEE.
Zurück zum Zitat Bojarski, M., Del Testa, D., Dworakowski, D., Firner, B., Flepp, B., Goyal, P., Jackel, L.D., Monfort, M., Muller, U., Zhang, J., & Zhang, X. (2016). End to end learning for self-driving cars. arXiv preprint arXiv:1604.07316. Bojarski, M., Del Testa, D., Dworakowski, D., Firner, B., Flepp, B., Goyal, P., Jackel, L.D., Monfort, M., Muller, U., Zhang, J., & Zhang, X. (2016). End to end learning for self-driving cars. arXiv preprint arXiv:​1604.​07316.
Zurück zum Zitat Boser, B. E., Guyon, I. M., & Vapnik, V. N. (1992, July). A training algorithm for optimal margin classifiers. In Proceedings of the fifth annual workshop on Computational learning theory (S. 144–152). Boser, B. E., Guyon, I. M., & Vapnik, V. N. (1992, July). A training algorithm for optimal margin classifiers. In Proceedings of the fifth annual workshop on Computational learning theory (S. 144–152).
Zurück zum Zitat Breiman, L. (2001). Random forests. Machine Learning, 45, 5–32. Breiman, L. (2001). Random forests. Machine Learning, 45, 5–32.
Zurück zum Zitat Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., & Agarwal, S. (2020). Language models are few-shot learners. In Advances in Neural Information Processing Systems, 33, 1877–1901. Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., & Agarwal, S. (2020). Language models are few-shot learners. In Advances in Neural Information Processing Systems, 33, 1877–1901.
Zurück zum Zitat Brynjolfsson, E., Rock, D., & Syverson, C. (2019). Artificial intelligence and the modern productivity paradox. In E. Brynjolfsson & J. Zittrain (Hrsg.), The Economics of Artificial Intelligence: An Agenda (S. 23–57). Brynjolfsson, E., Rock, D., & Syverson, C. (2019). Artificial intelligence and the modern productivity paradox. In E. Brynjolfsson & J. Zittrain (Hrsg.), The Economics of Artificial Intelligence: An Agenda (S. 23–57).
Zurück zum Zitat Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., Lee, P., Lee, Y. T., Li, Y., Lundberg, S., & Nori, H. (2023). Sparks of artificial general intelligence: Early experiments with gpt-4. arXiv preprint arXiv:2303.12712. Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., Lee, P., Lee, Y. T., Li, Y., Lundberg, S., & Nori, H. (2023). Sparks of artificial general intelligence: Early experiments with gpt-4. arXiv preprint arXiv:​2303.​12712.
Zurück zum Zitat Brynjolfsson, E., Hitt, L. M., & Yang, S. (2002). Intangible assets: Computers and organizational capital. Brookings Papers on Economic Activity, 2002(1), 137–181. Brynjolfsson, E., Hitt, L. M., & Yang, S. (2002). Intangible assets: Computers and organizational capital. Brookings Papers on Economic Activity, 2002(1), 137–181.
Zurück zum Zitat Chen, T., & Guestrin, C. (2016, August). Xgboost: A scalable tree boosting system. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (S. 785–794). Chen, T., & Guestrin, C. (2016, August). Xgboost: A scalable tree boosting system. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (S. 785–794).
Zurück zum Zitat Cheng, T., Song, L., Ge, Y., Liu, W., Wang, X., & Shan, Y. (2024). YOLO-World: Real-Time Open-Vocabulary Object Detection. arXiv preprint arXiv:2401.17270. Cheng, T., Song, L., Ge, Y., Liu, W., Wang, X., & Shan, Y. (2024). YOLO-World: Real-Time Open-Vocabulary Object Detection. arXiv preprint arXiv:​2401.​17270.
Zurück zum Zitat Chorowski, J. K., Bahdanau, D., Serdyuk, D., Cho, K. & Bengio, Y. (2015). Attention-based models for speech recognition. In Advances in Neural Information Processing Systems, 28. Chorowski, J. K., Bahdanau, D., Serdyuk, D., Cho, K. & Bengio, Y. (2015). Attention-based models for speech recognition. In Advances in Neural Information Processing Systems, 28.
Zurück zum Zitat Chowdhery, A., Narang, S., Devlin, J., Bosma, M., Mishra, G., Roberts, A., Barham, P., Chung, H. W., Sutton, C., Gehrmann, S., & Schuh, P. (2023). Palm: Scaling language modeling with pathways. Journal of Machine Learning Research, 24(240), 1–113. Chowdhery, A., Narang, S., Devlin, J., Bosma, M., Mishra, G., Roberts, A., Barham, P., Chung, H. W., Sutton, C., Gehrmann, S., & Schuh, P. (2023). Palm: Scaling language modeling with pathways. Journal of Machine Learning Research, 24(240), 1–113.
Zurück zum Zitat Corso, G., Stärk, H., Jing, B., Barzilay, R. & Jaakkola, T. (2023). DiffDock: Diffusion Steps, Twists, and Turns for Molecular Docking.. International Conference on Learning Representations (ICLR). Corso, G., Stärk, H., Jing, B., Barzilay, R. & Jaakkola, T. (2023). DiffDock: Diffusion Steps, Twists, and Turns for Molecular Docking.. International Conference on Learning Representations (ICLR).
Zurück zum Zitat Dean, J., Corrado, G., Monga, R., Chen, K., Devin, M., Mao, M., Ranzato, M. A., Senior, A., Tucker, P., Yang, K. & Le, Q. (2012). Large scale distributed deep networks. In Advances in Neural Information Processing Systems, 25. Dean, J., Corrado, G., Monga, R., Chen, K., Devin, M., Mao, M., Ranzato, M. A., Senior, A., Tucker, P., Yang, K. & Le, Q. (2012). Large scale distributed deep networks. In Advances in Neural Information Processing Systems, 25.
Zurück zum Zitat Devlin, J., Chang, M. W., Lee, K. & Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805. Devlin, J., Chang, M. W., Lee, K. & Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:​1810.​04805.
Zurück zum Zitat Garcez, A. D. A., Bader, S., Bowman, H., Lamb, L. C., de Penning, L., Illuminoo, B. V., Poon, H., & Zaverucha, C. G. (2022). Neural-symbolic learning and reasoning: A survey and interpretation. Neuro-Symbolic Artificial Intelligence: The State of the Art, 342(1), 327. Garcez, A. D. A., Bader, S., Bowman, H., Lamb, L. C., de Penning, L., Illuminoo, B. V., Poon, H., & Zaverucha, C. G. (2022). Neural-symbolic learning and reasoning: A survey and interpretation. Neuro-Symbolic Artificial Intelligence: The State of the Art, 342(1), 327.
Zurück zum Zitat Gittins, J. C. (1979). Bandit processes and dynamic allocation indices. Journal of the Royal Statistical Society Series B: Statistical Methodology, 41(2), 148–164. Gittins, J. C. (1979). Bandit processes and dynamic allocation indices. Journal of the Royal Statistical Society Series B: Statistical Methodology, 41(2), 148–164.
Zurück zum Zitat Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A. & Bengio, Y. (2014). Generative adversarial nets. In Advances in Neural Information Processing Systems, 27. Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A. & Bengio, Y. (2014). Generative adversarial nets. In Advances in Neural Information Processing Systems, 27.
Zurück zum Zitat Graves, A. & Jaitly, N. (2014). Towards end-to-end speech recognition with recurrent neural networks. In International conference on machine learning (S. 1764–1772). PMLR. Graves, A. & Jaitly, N. (2014). Towards end-to-end speech recognition with recurrent neural networks. In International conference on machine learning (S. 1764–1772). PMLR.
Zurück zum Zitat Hansen, L. K. & Rieger, L. (2019). Interpretability in intelligent systems–a new concept? In Explainable AI: Interpreting, Explaining and Visualizing Deep Learning (S. 41–49). Hansen, L. K. & Rieger, L. (2019). Interpretability in intelligent systems–a new concept? In Explainable AI: Interpreting, Explaining and Visualizing Deep Learning (S. 41–49).
Zurück zum Zitat He, K., Zhang, X., Ren, S. & Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition (S. 770–778). He, K., Zhang, X., Ren, S. & Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition (S. 770–778).
Zurück zum Zitat Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural Computation, 9(8), 1735–1780. Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural Computation, 9(8), 1735–1780.
Zurück zum Zitat Hornik, K., Stinchcombe, M., & White, H. (1989). Multilayer feedforward networks are universal approximators. Neural Networks, 2(5), 359–366. Hornik, K., Stinchcombe, M., & White, H. (1989). Multilayer feedforward networks are universal approximators. Neural Networks, 2(5), 359–366.
Zurück zum Zitat Jordan, M. I., & Mitchell, T. M. (2015). Machine learning: Trends, perspectives, and prospects. Science, 349(6245), 255–260. Jordan, M. I., & Mitchell, T. M. (2015). Machine learning: Trends, perspectives, and prospects. Science, 349(6245), 255–260.
Zurück zum Zitat Kari, M. (2019). KI zur Fahrzeugdatenverarbeitung unter Berücksichtigung von Connected Fleet Learning. Masterarbeit: Universität Duisburg-Essen. Kari, M. (2019). KI zur Fahrzeugdatenverarbeitung unter Berücksichtigung von Connected Fleet Learning. Masterarbeit: Universität Duisburg-Essen.
Zurück zum Zitat Kingma, D. P., & Ba, J. (2015). Adam: A method for stochastic optimization. In International Conference on Learning Representations (ICLR). Kingma, D. P., & Ba, J. (2015). Adam: A method for stochastic optimization. In International Conference on Learning Representations (ICLR).
Zurück zum Zitat Kirschstein, T., Giebenhain, S., & Nießner, M. (2023). DiffusionAvatars: Deferred Diffusion for High-fidelity 3D Head Avatars. arXiv preprint arXiv:2311.18635. Kirschstein, T., Giebenhain, S., & Nießner, M. (2023). DiffusionAvatars: Deferred Diffusion for High-fidelity 3D Head Avatars. arXiv preprint arXiv:​2311.​18635.
Zurück zum Zitat Kneissler, M. (1983). Der Computer wird immer intelligenter. In: Quick, Ausgave vom 17.11.1983 (47), 57–59. Kneissler, M. (1983). Der Computer wird immer intelligenter. In: Quick, Ausgave vom 17.11.1983 (47), 57–59.
Zurück zum Zitat Kolesnikov, A., Zhai, X., & Beyer, L. (2019). Revisiting self-supervised visual representation learning. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (S. 1920–1929). Kolesnikov, A., Zhai, X., & Beyer, L. (2019). Revisiting self-supervised visual representation learning. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (S. 1920–1929).
Zurück zum Zitat Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. In Advances in Neural Information Processing Systems, 25. Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. In Advances in Neural Information Processing Systems, 25.
Zurück zum Zitat LeCun, Y., Bottou, L., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278–2324. LeCun, Y., Bottou, L., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278–2324.
Zurück zum Zitat LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444. LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444.
Zurück zum Zitat Luong, M. T., Pham, H., & Manning, C. D. (2015). Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025. Luong, M. T., Pham, H., & Manning, C. D. (2015). Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:​1508.​04025.
Zurück zum Zitat McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The Bulletin of Mathematical Biophysics, 5, 115–133. McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The Bulletin of Mathematical Biophysics, 5, 115–133.
Zurück zum Zitat Minsky, M. (1961). Steps toward artificial intelligence. Proceedings of the IRE, 49(1), 8–30. Minsky, M. (1961). Steps toward artificial intelligence. Proceedings of the IRE, 49(1), 8–30.
Zurück zum Zitat Mitchell, T. M. (2006). The discipline of machine learning (Bd. 9, S. 3). Pittsburgh: Carnegie Mellon University, School of Computer Science, Machine Learning Department. Mitchell, T. M. (2006). The discipline of machine learning (Bd. 9, S. 3). Pittsburgh: Carnegie Mellon University, School of Computer Science, Machine Learning Department.
Zurück zum Zitat Mnih, V., Kavukcuoglu, K., Silver, D., Graves, A., Antonoglou, I., Wierstra, D., & Riedmiller, M. (2013). Playing atari with deep reinforcement learning. arXiv preprint arXiv:1312.5602. Mnih, V., Kavukcuoglu, K., Silver, D., Graves, A., Antonoglou, I., Wierstra, D., & Riedmiller, M. (2013). Playing atari with deep reinforcement learning. arXiv preprint arXiv:​1312.​5602.
Zurück zum Zitat Monett, D., Lewis, C. W., Thórisson, K. R., Bach, J., Baldassarre, G., Granato, G., Berkeley, I. S., Chollet, F., Crosby, M., & Shevlin, H. (2020). Introduction to the JAGI special issue ‘On defining artificial intelligence’–commentaries and author’s response. Journal of Artificial General Intelligence, 11(2), 1–100. Monett, D., Lewis, C. W., Thórisson, K. R., Bach, J., Baldassarre, G., Granato, G., Berkeley, I. S., Chollet, F., Crosby, M., & Shevlin, H. (2020). Introduction to the JAGI special issue ‘On defining artificial intelligence’–commentaries and author’s response. Journal of Artificial General Intelligence, 11(2), 1–100.
Zurück zum Zitat Ng, A. Y. (1997, July). Preventing “overfitting” of cross-validation data. In ICML (Bd. 97, S. 245–253). Ng, A. Y. (1997, July). Preventing “overfitting” of cross-validation data. In ICML (Bd. 97, S. 245–253).
Zurück zum Zitat Ng, A., & Jordan, M. (2001). On discriminative vs. generative classifiers: A comparison of logistic regression and naive bayes. Advances in Neural Information Processing Systems, 14. Ng, A., & Jordan, M. (2001). On discriminative vs. generative classifiers: A comparison of logistic regression and naive bayes. Advances in Neural Information Processing Systems, 14.
Zurück zum Zitat Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., Ray, A., & Schulman, J. (2022). Training language models to follow instructions with human feedback. Advances in Neural Information Processing Systems, 35, 27730–27744. Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., Ray, A., & Schulman, J. (2022). Training language models to follow instructions with human feedback. Advances in Neural Information Processing Systems, 35, 27730–27744.
Zurück zum Zitat Ronneberger, O., Fischer, P., & Brox, T. (2015). U-net: Convolutional networks for biomedical image segmentation. In O. Golland, N. Hata, C. Barillot, J. Hornegger, & R. Howe (Hrsg.), Medical image computing and computer-assisted intervention–MICCAI 2015: 18th international conference, Munich, Germany, October 5–9, 2015, proceedings, part III (S. 234–241). Springer International Publishing. Ronneberger, O., Fischer, P., & Brox, T. (2015). U-net: Convolutional networks for biomedical image segmentation. In O. Golland, N. Hata, C. Barillot, J. Hornegger, & R. Howe (Hrsg.), Medical image computing and computer-assisted intervention–MICCAI 2015: 18th international conference, Munich, Germany, October 5–9, 2015, proceedings, part III (S. 234–241). Springer International Publishing.
Zurück zum Zitat Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6), 386. Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6), 386.
Zurück zum Zitat Roziere, B., Gehring, J., Gloeckle, F., Sootla, S., Gat, I., Tan, X. E., Adi, Y., Liu, J., Remez, T., Rapin, J., & Kozhevnikov, A. (2023). Code llama: Open foundation models for code. arXiv preprint arXiv:2308.12950. Roziere, B., Gehring, J., Gloeckle, F., Sootla, S., Gat, I., Tan, X. E., Adi, Y., Liu, J., Remez, T., Rapin, J., & Kozhevnikov, A. (2023). Code llama: Open foundation models for code. arXiv preprint arXiv:​2308.​12950.
Zurück zum Zitat Russell, S., & Norvig, P. (1995). Artificial intelligence – A modern approach. Prentice Hall, Englewood Cliffs, New Jersey. Russell, S., & Norvig, P. (1995). Artificial intelligence – A modern approach. Prentice Hall, Englewood Cliffs, New Jersey.
Zurück zum Zitat Samek, W., Montavon, G., Vedaldi, A., Hansen, L. K., & Müller, K. R. (Hrsg.). (2019). Explainable AI: Interpreting, Explaining and Visualizing Deep Learning (Bd. 11700). Springer Nature. Samek, W., Montavon, G., Vedaldi, A., Hansen, L. K., & Müller, K. R. (Hrsg.). (2019). Explainable AI: Interpreting, Explaining and Visualizing Deep Learning (Bd. 11700). Springer Nature.
Zurück zum Zitat Schmidhuber, J. (2015). Deep learning in neural networks: An overview. Neural Networks, 61, 85–117. Schmidhuber, J. (2015). Deep learning in neural networks: An overview. Neural Networks, 61, 85–117.
Zurück zum Zitat Schulman, J., Wolski, F., Dhariwal, P., Radford, A., & Klimov, O. (2017). Proximal policy optimization algorithms. arXiv preprint arXiv:1707.06347. Schulman, J., Wolski, F., Dhariwal, P., Radford, A., & Klimov, O. (2017). Proximal policy optimization algorithms. arXiv preprint arXiv:​1707.​06347.
Zurück zum Zitat Silver, D., Huang, A., Maddison, C. J., Guez, A., Sifre, L., Van Den Driessche, G., Schrittwieser, J., Antonoglou, I., Panneershelvam, V., Lanctot, M., & Dieleman, S. (2016). Mastering the game of Go with deep neural networks and tree search. Nature, 529(7587), 484–489. Silver, D., Huang, A., Maddison, C. J., Guez, A., Sifre, L., Van Den Driessche, G., Schrittwieser, J., Antonoglou, I., Panneershelvam, V., Lanctot, M., & Dieleman, S. (2016). Mastering the game of Go with deep neural networks and tree search. Nature, 529(7587), 484–489.
Zurück zum Zitat Srivastava, A., Rastogi, A., Rao, A., Shoeb, A. A. M., Abid, A., Fisch, A., Brown, A. R., et al. (2022). Beyond the imitation game: Quantifying and extrapolating the capabilities of language models. arXiv preprint arXiv:2206.04615. Srivastava, A., Rastogi, A., Rao, A., Shoeb, A. A. M., Abid, A., Fisch, A., Brown, A. R., et al. (2022). Beyond the imitation game: Quantifying and extrapolating the capabilities of language models. arXiv preprint arXiv:​2206.​04615.
Zurück zum Zitat Sutton, R. S., & Andrew, G. B. (2018). Reinforcement Learning: An Introduction.. Second Edition. MIT Press, Cambridge, MA. Sutton, R. S., & Andrew, G. B. (2018). Reinforcement Learning: An Introduction.. Second Edition. MIT Press, Cambridge, MA.
Zurück zum Zitat Sutskever, I., Martens, J., Dahl, G., & Hinton, G. (2013, May). On the importance of initialization and momentum in deep learning. In International Conference on Machine Learning (S. 1139–1147). PMLR. Sutskever, I., Martens, J., Dahl, G., & Hinton, G. (2013, May). On the importance of initialization and momentum in deep learning. In International Conference on Machine Learning (S. 1139–1147). PMLR.
Zurück zum Zitat Szegedy, C., Zaremba, W., Sutskever, I., Bruna, J., Erhan, D., Goodfellow, I., & Fergus, R. (2013). Intriguing properties of neural networks. arXiv preprint arXiv:1312.6199. Szegedy, C., Zaremba, W., Sutskever, I., Bruna, J., Erhan, D., Goodfellow, I., & Fergus, R. (2013). Intriguing properties of neural networks. arXiv preprint arXiv:​1312.​6199.
Zurück zum Zitat Takagi, Y., & Nishimoto, S. (2023). High-resolution image reconstruction with latent diffusion models from human brain activity. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (S. 14453–14463). Takagi, Y., & Nishimoto, S. (2023). High-resolution image reconstruction with latent diffusion models from human brain activity. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (S. 14453–14463).
Zurück zum Zitat Touvron, H., Martin, L., Stone, K., Albert, P., Almahairi, A., Babaei, Y., Bashlykov, N., Batra, S., Bhargava, P., Bhosale, S., & Bikel, D. (2023). Llama 2: Open foundation and fine-tuned chat models. arXiv preprint arXiv:2307.09288. Touvron, H., Martin, L., Stone, K., Albert, P., Almahairi, A., Babaei, Y., Bashlykov, N., Batra, S., Bhargava, P., Bhosale, S., & Bikel, D. (2023). Llama 2: Open foundation and fine-tuned chat models. arXiv preprint arXiv:​2307.​09288.
Zurück zum Zitat Vapnik, V. (1995). The nature of statistical learning theory. Springer. Vapnik, V. (1995). The nature of statistical learning theory. Springer.
Zurück zum Zitat Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. In Advances in Neural Information Processing Systems, 30. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. In Advances in Neural Information Processing Systems, 30.
Zurück zum Zitat Wang, P. (2019). On defining artificial intelligence. Journal of Artificial General Intelligence, 11(2), 73–86. Wang, P. (2019). On defining artificial intelligence. Journal of Artificial General Intelligence, 11(2), 73–86.
Zurück zum Zitat Wang, P. (2020). On Defining Artificial Intelligence—Author’s Response to Commentaries. Journal of Artificial General Intelligence, 11(2). Wang, P. (2020). On Defining Artificial Intelligence—Author’s Response to Commentaries. Journal of Artificial General Intelligence, 11(2).
Zurück zum Zitat Witte, T. (1979). Heuristisches Planen. Vorgehensweisen zur Strukturierung betrieblicher Planungsprobleme. Springer Fachmedien Wiesbaden 1979. Witte, T. (1979). Heuristisches Planen. Vorgehensweisen zur Strukturierung betrieblicher Planungsprobleme. Springer Fachmedien Wiesbaden 1979.
Zurück zum Zitat Yang, M., Cho, K., Merchant, A., Abbeel, P., Schuurmans, D., Mordatch, I., & Cubuk, E. D. (2023). Scalable diffusion for materials generation. arXiv preprint arXiv:2311.09235. Yang, M., Cho, K., Merchant, A., Abbeel, P., Schuurmans, D., Mordatch, I., & Cubuk, E. D. (2023). Scalable diffusion for materials generation. arXiv preprint arXiv:​2311.​09235.
Zurück zum Zitat Zelewski, S. (1986). Das Leistungspotential der Künstlichen Intelligenz – Eine informationstechnisch-betriebswirtschaftliche Analyse. Bd. 1, 2 und 3 (1). Witterschlick / Bonn. Zelewski, S. (1986). Das Leistungspotential der Künstlichen Intelligenz – Eine informationstechnisch-betriebswirtschaftliche Analyse. Bd. 1, 2 und 3 (1). Witterschlick / Bonn.
Zurück zum Zitat Zelewski, S. (1991). Searle’s Wiederbelebung der starken KI-These – Ein Beitrag zur Diskussion des Erkenntnisprogramms der Erforschung Künstlicher Intelligenz (KI). In R. Casati & G. White (Hrsg.), Philosophy and the Cognitive Sciences – Philosophie und die kognitiven Wissenschaften. Papers of the 16th International Wittgenstein Symposium – Beiträge des 16. Internationalen Wittgenstein Symposiums, 15.-22.08.1993 in Kirchberg (S. 611–616). Zelewski, S. (1991). Searle’s Wiederbelebung der starken KI-These – Ein Beitrag zur Diskussion des Erkenntnisprogramms der Erforschung Künstlicher Intelligenz (KI). In R. Casati & G. White (Hrsg.), Philosophy and the Cognitive Sciences – Philosophie und die kognitiven Wissenschaften. Papers of the 16th International Wittgenstein Symposium – Beiträge des 16. Internationalen Wittgenstein Symposiums, 15.-22.08.1993 in Kirchberg (S. 611–616).
Zurück zum Zitat Zelewski, S. (2008). Grundlagen. In H. Corsten (Hrsg.). Betriebswirtschaftslehre Band 1: Grundlagen; Internes Rechnungswesen; Externes Rechnungswesen; Beschaffung; Produktion und Logistik; Marketing; Investition und Finanzierung (pp. 1–97, 4., vollständig überarbeitete und wesentlich erweiterte Auflage) München: Oldenbourg. Zelewski, S. (2008). Grundlagen. In H. Corsten (Hrsg.). Betriebswirtschaftslehre Band 1: Grundlagen; Internes Rechnungswesen; Externes Rechnungswesen; Beschaffung; Produktion und Logistik; Marketing; Investition und Finanzierung (pp. 1–97, 4., vollständig überarbeitete und wesentlich erweiterte Auflage) München: Oldenbourg.
Zurück zum Zitat Zhang, A., Lipton, Z. C., Li, M., & Smola, A. J. (2023). Dive into deep learning. Cambridge University Press. Zhang, A., Lipton, Z. C., Li, M., & Smola, A. J. (2023). Dive into deep learning. Cambridge University Press.
Metadaten
Titel
Das Leistungspotential der Künstlichen Intelligenz im 21. Jahrhundert – eine Analyse unter Berücksichtigung von Machine Learning und seinem Einsatz in modernen ERP-Systemen
verfasst von
Reinhard Schütte
Mohamed Kari
Copyright-Jahr
2024
DOI
https://doi.org/10.1007/978-3-658-46113-3_16

Premium Partner