Skip to main content

2021 | OriginalPaper | Buchkapitel

5. Das Prinzip Schärfung (I): Filterung. Kosmos aus Chaos

verfasst von : Hanns-Werner Heister

Erschienen in: Musik und Fuzzy Logic

Verlag: Springer Berlin Heidelberg

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

‚Filterung‘ ist die Trennung von Wesentlichem und Sekundärem – je nach Kontext und Ziel. Es ist die basale Stufe der Schärfung im Bereich der Musik. Sie wird genutzt, um ‚natürliches‘ Material, insbesondere Töne, Klänge und Geräusche, auszuarbeiten und zu systematisieren. Diese dienen dann als musikalisches Material für die zweite Stufe, die „Kristallisation“ von Gestalten (siehe Kap. 6). Diese Filterungsprozesse wiederholen sich bereits im Bereich der Musik, wenn aus heterophonen Linien Akkorde herausgefiltert werden, oder wenn in der elektroakustischen Musik Töne aus Geräuschen oder Sinustönen gewonnen werden. Die automatisierte Filterung durch Soft Computing und FL-orientierte Verfahren ist eine Analyse von Ähnlichkeiten, bei Strukturen wie bei emotionalen Gehalten. Unser ‚Leitmotiv‘ BACH dient als Test bei einer Internetrecherche, die die Produktivität der Fuzzy Logic zeigt. Die Filterung als Hervorhebung wesentlicher Informationen mittels der phonographischen Form unterstützt die Neuschärfung des Gedächtnisses. Die kompositorische Verwendung des Teiltonspektrums wie in Wagners Rheingold-Präludium oder im „Spektralismus“ ist bereits ein Übergang zur Kristallisation.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Fußnoten
1
Zadeh 1984, 2004 sowie Seising und Zadeh 2013.
 
2
Ausf. z. B. Käfer 1998.
 
3
Vgl. z. B. Koza 1992 „on the programming of computers by means of natural selection“.
 
4
MacCallum, R.M. et al. 2012, Abstract.
 
5
Kommentar Nicolas Claidière, Simon Kirby und Dan Sperber: Effect of psychological bias separates cultural from biological evolution. In: PNAS December 18, 2012 109 (51) E3526; https://​doi.​org/​10.​1073/​pnas.​1213320109. Replik Claidière et al. Armand M. Leroi, Robert M. MacCallum, Matthias Mauch und Austin Burt: Role of psychological bias in evolution depends on the kind of culture. In: PNAS December 18, 2012 109 (51) E3527. Claidière N, Kirby S, Sperber D. Proc Natl Acad Sci U S A. 2012 Dec 18;109(51):E3526; author reply[deutsch] E3527. doi: 10.1073/pnas.1213320109. Vgl. Christoph Adami: Adaptive walks on the fitness landscape of music. PNAS July 24, 2012 109 (30) 11898–11899. https://​doi.​org/​10.​1073/​pnas.​1209301109. Vgl. Lumaca M, Ravignani A, Baggio G.: Music Evolution in the Laboratory: Cultural Transmission Meets Neurophysiology. Front Neurosci. 2018 Apr 16;12:246. doi: 10.3389/fnins.2018.00246. Lambert B, Kontonatsios G, Mauch M, Kokkoris T, Jockers M, Ananiadou S, Leroi A.M.: Statistical Evolutionary Laws in Music Styles. Nat Hum Behav. 2020 Apr;4(4):352–360. doi: 10.1038/s41562-019-0802-4. Usw..
 
6
Lambert, B., Kontonatsios, G., Mauch, M. et al.: The pace of modern culture. In: Nat Hum Behav 4, 352–360 (2020). https://​doi.​org/​10.​1038/​s41562-019-0802-4. Hervorhebung H.-W. H.
 
7
S. z. B. Zoltai 1970; Chen 2000; Heister 2009.
 
8
Die Termini index, icon, symbol im Sinne der Semiotik von Charles Sanders Peirce und Charles W. Morris. Vgl. z. B. Atkin, Albert: Peirces Theory of Signs. In: The Stanford Encyclopedia of Philosophy (Summer 2013 Edition), Edward N. Zalta (Hrsg.), https://​plato.​stanford.​edu/​archives/​sum2013/​entries/​peirce-semiotics.
 
9
Ausführlich zum Spektrum dieses Ausgangsmaterials vor allem Georg Knepler 1977.
 
10
„I hypothesize three components as necessary for ensemble playing and dancing: pulse extraction, beat entrainment, and motor pattern generation. The first involves auditory processing only, the second cross-modal (auditory to motor) integration, and the last sensorily-guided motor behaviour.“ (Fitch 2011, S 2), Hervorhebung H.-W. H. [10pt].
 
11
http://​www.​knochenfloeten.​de/​pdf/​HEIN%20​Wulf%20​knochenfloeten_​blaubeuren.​pdf. Zugegriffen: 19. Oktober 2017. Diese paläolithischen Flöten sind offensichtlich älter als die von Zhang et al. 2007 präsentierten.
 
12
Zu anderen Flöten der Aurignacien-Kunst ausführlich unter anderem Käfer 1998.
 
14
Correspondence III: Neanderthal flute, Kent Nickerson. Jul 08 1997, updated Mar 2003; ausführlich diskutiert https://​web.​archive.​org/​web/​20060527135823/​http://​www.​greenwych.​ca/​fl3debat.​htm#What. Zugegriffen: 15. Januar 2018.
 
15
Vgl. Falkenhausen 1993, S 50 f.; Kluge 2011.
 
16
Mazzola et al. 2016, S 247.
 
17
S. z. B. León und Liern Carrión 2010, 2012.
 
18
Als eine Art Ton-‚Archäologie‘ ließen sich in Klangaufzeichnungen verschiedene Stimmsysteme der jeweils verwendeten Instrumente entdecken und herausfiltern – und die verstimmten und unscharfen Varianten der gewollten Systeme. Siehe z. B. Dixon et al. 2012 oder Estimation of Harpsichord Inharmonicity and Temperament from Musical Recordings, 28. März 2011, http://​schall-und-mauch.​de/​artificialmusica​lity/​2011/​03/​estimation-of-harpsichord-inharmonicity-and-temperament-from-musical-recordings/​. Zugegriffen: 30. Januar 2014.
 
19
Zur historischen Dimension von Stimmungen für das Komponieren und Musikdenken s. z. B. Pythagorean Tuning and Medieval Polyphony, http://​www.​medieval.​org/​emfaq/​harmony/​pyth5.​html. Zugegriffen: 14. Januar 2018.
 
20
Blues-Tonleitern z. B. weichen von diesem System dezidiert ab.
 
21
Vgl. dazu z. B. u. a. St. Toulmin und J. Goodfield1970a und 1970b; spezieller Pesic 2014, besonders Tuning the Atoms, S 245–254.
 
22
Ausf. s. z. B. http://​www.​swr.​de/​swr2/​programm/​sendungen/​jetztmusik/​glossar/​-/​id=​4979696/​1m5qq8g/​index.​html, 24. Juni 2009. Zugegriffen: 24. Juni 2009 (Link inzwischen stillgelegt).
 
23
https://en.wikipedia.org/wiki/Ut_queant_laxis. Zugegriffen: 14. Januar 2018.
 
24
Zit. n. https://​de.​wikipedia.​org/​wiki/​Johannes-Hymnus, 31. Juli 2020. Zugegriffen: 31. Dezember 2021.
 
25
Ebd.
 
27
Die Presse, Spectrum, 25.06.2011.
 
28
Die deutschsprachigen Termini Dur und Moll greifen darauf zurück.
 
29
https://en.wikipedia.org/wiki/Giovanni_Battista_Doni, 21. Juli 2017. Zugegriffen: 15. Januar 2018.
 
30
Ebd.
 
31
Die Innovation war unumgänglich und lag daher in der Luft. Die Namensgebung hinkte hier der tatsächlichen Erweiterung des Tonsystems anscheinend erheblich nach. Der Komponist und Musiktheoretiker Otto Gibel z. B., auch latinisiert Gibelius, veröffentlichte in dieser Zeit Kurtzer, jedoch gründlicher Bericht von den Vocibus Musicalibus, darin gehandelt wird von der musicalischen Syllabication, oder […] von der Solmisation […] für diejenigen, so mit Unterweisung der Jugend im Singen umbgehen, zu wolmeinenden Nachricht auffgesetzet von Ottone Gibelio. Jacob Köhler, Bremen 1659. (https://​de.​wikipedia.​org/​wiki/​Otto_​Gibel, 23. Januar 2021. Zugegriffen: 29. Januar 2021).
 
32
Ebd. https://​en.​wikipedia.​org/​wiki/​Sarah_​Ann_​Glover, 18. April 2016. Zugegriffen: 20. Februar 2018.
 
33
Dixon et al. 2012, S 1.
 
34
S. u. a. Wojcik und Kostek 2010 und Mauch 2011.
 
35
Wojcik und Kostek 2010, Abstract. http://​link.​springer.​com/​chapter/​10.​1007/​978-3-642-11674-2_​3. Zugegriffen: 2. Januar 2016; Hervorhebung H.-W. H.
 
36
Aucouturier und Pachet 2004, S 1.
 
37
Ebd., S 10.
 
38
Ebd., S 1.
 
39
Ebd.
 
40
Ebd.
 
41
Ebd., S 10.
 
42
Vgl. z. B. Schmidt 1992, Niedermayer 2007.
 
43
Kunkel 2011, S 480 f. Stücke Kreidlers sind dokumentiert auf www.​kreidler-net.​de, 7. Juli 2010.
 
44
Die in der Durchführung bereits schon einmal als „Vision“ erreichte Sphäre von H-Dur und Fis-Dur, die in vielen religiösen oder religiös konnotierten Werken „als Symbole der Transzendenz und der Erlösung“ erscheinen (S 388), ist nun als gebannte Angst und „Zustand der Ruhe […] real erreicht.“ (S 408) Angelus Seipt: César Franck symphonische Dichtungen (Kölner Beiträge zur Musikforschung, hrsg. von Heinrich Hüschen, Bd. 116). Gustav Bosse Verlag, Regensburg (1981).
 
45
https://​en.​wikipedia.​org/​wiki/​Manowar, 23. Januar 2018. Zugegriffen: 13. Februar 2018.
 
46
Ebd.
 
47
https://en.wikipedia.org/wiki/Loudest_band, 8. Januar 2021. Zugegriffen: 30. Januar 2021. Auch bei den „battles“ der Jazzbands in New Orleans vor 1918 galt Lautstärke als Qualitätsmerkmal.
 
48
Ausf. dazu unter Anderem https://​en.​wikipedia.​org/​wiki/​Loudness_​war, 23. Januar 2021, und https://​de.​wikipedia.​org/​wiki/​Loudness_​War, 6. September 2020. Zugegriffen: 30. Januar 2021.
 
50
Zit. n. ebd.
 
Literatur
Zurück zum Zitat Ahrendt, P.: Music genre classification systems – a computational approach. Ph.D. Thesis. Technical University of Denmark, DTU (2006) Ahrendt, P.: Music genre classification systems – a computational approach. Ph.D. Thesis. Technical University of Denmark, DTU (2006)
Zurück zum Zitat Allen, P.E., Dannenberg, R.B.: Tracking musical beats in real time. In: International Computer Music Conference, Glasgow, S. 140–143 (1990) Allen, P.E., Dannenberg, R.B.: Tracking musical beats in real time. In: International Computer Music Conference, Glasgow, S. 140–143 (1990)
Zurück zum Zitat Alonso, M., David, B., Richard, G.: A study of tempo tracking algorithms from polyphonic music signals. In: Proceedings of the 4th COST 276 Workshop, Information and Knowledge Management for Integrated Media Communication. Bordeaux, Frankreich, S. 1–5 (2003) Alonso, M., David, B., Richard, G.: A study of tempo tracking algorithms from polyphonic music signals. In: Proceedings of the 4th COST 276 Workshop, Information and Knowledge Management for Integrated Media Communication. Bordeaux, Frankreich, S. 1–5 (2003)
Zurück zum Zitat Aramaki, M., Barthet, M., Kronland-Martinet, R., Ystad, S. (Hrsg.): From sounds to music and emotions. 9th International Symposium CMMR 2012, London, UK, Revised Selected Papers. Information Systems and Applications, incl. Internet/Web, and HCI, Bd. 7900. 19.–22. Juni (2012) Aramaki, M., Barthet, M., Kronland-Martinet, R., Ystad, S. (Hrsg.): From sounds to music and emotions. 9th International Symposium CMMR 2012, London, UK, Revised Selected Papers. Information Systems and Applications, incl. Internet/Web, and HCI, Bd. 7900. 19.–22. Juni (2012)
Zurück zum Zitat Arenas-Garca, J., Larsen, J., Hansen, L.K., Meng, A.: Optimal filtering of dynamics in short-time features for music organization. In: Proceedings of the 7th International Conference on Music Information Retrieval, Victoria, S. 290–295 (2006) Arenas-Garca, J., Larsen, J., Hansen, L.K., Meng, A.: Optimal filtering of dynamics in short-time features for music organization. In: Proceedings of the 7th International Conference on Music Information Retrieval, Victoria, S. 290–295 (2006)
Zurück zum Zitat Aucouturier, J.-J., Pachet, F.: Improving timbre similarity: how high is the sky. J. Neg. Results Speech Audio Sci. 1(1), 1–13 (2004) Aucouturier, J.-J., Pachet, F.: Improving timbre similarity: how high is the sky. J. Neg. Results Speech Audio Sci. 1(1), 1–13 (2004)
Zurück zum Zitat Barthet, M., Fazekas, G., Sandler, M.: Music emotion recognition: from content- to context-based models. In: Aramaki, M., Barthet, M., Kronland-Martinet, R., Ystad, S. (Hrsg.) From Sounds to Music and Emotions. CMMR 2012. Lecture Notes in Computer Science, Bd. 7900. Springer, Berlin/Heidelberg (2013). https://doi.org/10.1007 Barthet, M., Fazekas, G., Sandler, M.: Music emotion recognition: from content- to context-based models. In: Aramaki, M., Barthet, M., Kronland-Martinet, R., Ystad, S. (Hrsg.) From Sounds to Music and Emotions. CMMR 2012. Lecture Notes in Computer Science, Bd. 7900. Springer, Berlin/Heidelberg (2013). https://​doi.​org/​10.​1007
Zurück zum Zitat Berenzweig, A., Logan, B., Ellis, D., Whitman, B.: A large-scale evaluation of acoustic and subjective music-similarity measures. Comput. Music. J. 28(2), 63–76 (2004)CrossRef Berenzweig, A., Logan, B., Ellis, D., Whitman, B.: A large-scale evaluation of acoustic and subjective music-similarity measures. Comput. Music. J. 28(2), 63–76 (2004)CrossRef
Zurück zum Zitat Bruderer, M.: Automatic recognition of musical instruments. Master Thesis, Ecole Polytechnique Fédérale de Lausanne (2003) Bruderer, M.: Automatic recognition of musical instruments. Master Thesis, Ecole Polytechnique Fédérale de Lausanne (2003)
Zurück zum Zitat Chen, Y.-A., Wang, J.-C., Yang, Y.-H, Che, H.: Linear regression-based adaptation of music emotion recognition models for personalization. In: IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Mai (2014) Chen, Y.-A., Wang, J.-C., Yang, Y.-H, Che, H.: Linear regression-based adaptation of music emotion recognition models for personalization. In: IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Mai (2014)
Zurück zum Zitat Chen, C.-M., Chien, P.-C., Tsai, M.-F., Yang, Y.-H., Lin, Y.-C.: Exploiting latent social listening representations for music recommendations. In: ACM International Conference on Recommender Systems (RecSys), September (2015) Chen, C.-M., Chien, P.-C., Tsai, M.-F., Yang, Y.-H., Lin, Y.-C.: Exploiting latent social listening representations for music recommendations. In: ACM International Conference on Recommender Systems (RecSys), September (2015)
Zurück zum Zitat Chen, C.-M., Tsai, M.-F., Lin, Y.-C., Yang, Y.-H.: Query-based music recommendations via preference embedding. In: Proceedings of the ACM Recommender Systems (RecSys), S. 79–82, September (2016) Chen, C.-M., Tsai, M.-F., Lin, Y.-C., Yang, Y.-H.: Query-based music recommendations via preference embedding. In: Proceedings of the ACM Recommender Systems (RecSys), S. 79–82, September (2016)
Zurück zum Zitat Chen, Y.-W., Yang, Y.-H., Chen, H.H.: Cross-cultural music emotion recognition by adversarial discriminative domain adaptation. In: Proceedings of the IEEE International Conference on Machine Learning and Applications (ICMLA), Dezember (2018) Chen, Y.-W., Yang, Y.-H., Chen, H.H.: Cross-cultural music emotion recognition by adversarial discriminative domain adaptation. In: Proceedings of the IEEE International Conference on Machine Learning and Applications (ICMLA), Dezember (2018)
Zurück zum Zitat Chen, Y.-H., Huang, Y.-S., Hsiao, W.-Y., Yang, Y.-H.: Automatic composition of guitar tabs by Transformers and groove modeling. In: Proceedings of the International Society for Music Information Retrieval Conference (ISMIR), Oktober (2020) Chen, Y.-H., Huang, Y.-S., Hsiao, W.-Y., Yang, Y.-H.: Automatic composition of guitar tabs by Transformers and groove modeling. In: Proceedings of the International Society for Music Information Retrieval Conference (ISMIR), Oktober (2020)
Zurück zum Zitat Chin, Y.-H., Wang, J.-C., Wang, J.-C., Yang, Y.-H.: Predicting the probability density function of music emotion using emotion space mapping. IEEE Trans. Affect. Comput. 9(4), 541–549 (2018)CrossRef Chin, Y.-H., Wang, J.-C., Wang, J.-C., Yang, Y.-H.: Predicting the probability density function of music emotion using emotion space mapping. IEEE Trans. Affect. Comput. 9(4), 541–549 (2018)CrossRef
Zurück zum Zitat Chou, S.-Y., Yang, Y.-H., Jang, J.-S., Lin, Y.-C.: Addressing cold start for next-song recommendation. In: Proceedings of the ACM Recommender Systems (RecSys), S. 115–118, September (2016) Chou, S.-Y., Yang, Y.-H., Jang, J.-S., Lin, Y.-C.: Addressing cold start for next-song recommendation. In: Proceedings of the ACM Recommender Systems (RecSys), S. 115–118, September (2016)
Zurück zum Zitat Coutinho, E., Cangelosi, A.: A neural network model for the prediction of musical emotions. In: Nefti-Meziani, S., Grey, J.G. (Hrsg.) Advances in Cognitive Systems, S. 331–368. IET Publisher, London (2010) Coutinho, E., Cangelosi, A.: A neural network model for the prediction of musical emotions. In: Nefti-Meziani, S., Grey, J.G. (Hrsg.) Advances in Cognitive Systems, S. 331–368. IET Publisher, London (2010)
Zurück zum Zitat Coutinho, E., Cangelosi, A.: Musical emotions: predicting second-by-second subjective feelings of emotion from low-level psychoacoustic features and physiological measurements. Emotion. 11(4), 921–937 (2011)CrossRef Coutinho, E., Cangelosi, A.: Musical emotions: predicting second-by-second subjective feelings of emotion from low-level psychoacoustic features and physiological measurements. Emotion. 11(4), 921–937 (2011)CrossRef
Zurück zum Zitat Dixon, S., Mauch, M., Tidhar, D.: Estimation of Harpsichord Inharmonicity and Temperament from Musical Recording. J. Acoust. Soc. Am. 131(1), 878–887 (2012)CrossRef Dixon, S., Mauch, M., Tidhar, D.: Estimation of Harpsichord Inharmonicity and Temperament from Musical Recording. J. Acoust. Soc. Am. 131(1), 878–887 (2012)CrossRef
Zurück zum Zitat Dong, H.-W., Yang, Y.-H.: Convolutional generative adversarial networks with binary neurons for polyphonic music generation. In: Proceedings of the International Society for Music Information Retrieval Conference (ISMIR), September (2018) Dong, H.-W., Yang, Y.-H.: Convolutional generative adversarial networks with binary neurons for polyphonic music generation. In: Proceedings of the International Society for Music Information Retrieval Conference (ISMIR), September (2018)
Zurück zum Zitat Downie, J.S.: Evaluating a simple approach to music information retrieval: conceiving melodic n-grams as text. Ph.D. Thesis, Faculty of Information and Media Studies, University of Western Ontario, London (1999) Downie, J.S.: Evaluating a simple approach to music information retrieval: conceiving melodic n-grams as text. Ph.D. Thesis, Faculty of Information and Media Studies, University of Western Ontario, London (1999)
Zurück zum Zitat Ethier, G.: Techniques of hypermetric manipulation in Canadian blues. Can. J. Traditional Music, 33–53 (2001) Ethier, G.: Techniques of hypermetric manipulation in Canadian blues. Can. J. Traditional Music, 33–53 (2001)
Zurück zum Zitat Flexer, A., Pampalk, E., Widmer, G.: Hidden Markov models for spectral similarity of songs. In: Proceedings of the 8th International Conference on Digital Audio Effects, Madrid (2005) Flexer, A., Pampalk, E., Widmer, G.: Hidden Markov models for spectral similarity of songs. In: Proceedings of the 8th International Conference on Digital Audio Effects, Madrid (2005)
Zurück zum Zitat Foote, J.: Audio retrieval by rhythmic similarity. In: Proceedings of the 3rd International Conference on Music Information Retrieval (2002) Foote, J.: Audio retrieval by rhythmic similarity. In: Proceedings of the 3rd International Conference on Music Information Retrieval (2002)
Zurück zum Zitat Foote, J., Uchihashi, S.: The beat spectrum: a new approach to rhythm analysis. In: Proceedings of the IEEE International Conference on Multimedia and Expo, Tokyo, S. 224–228 (2001) Foote, J., Uchihashi, S.: The beat spectrum: a new approach to rhythm analysis. In: Proceedings of the IEEE International Conference on Multimedia and Expo, Tokyo, S. 224–228 (2001)
Zurück zum Zitat Fucks, W.: Mathematical analysis of formal structure of music. IEEE Trans. Inform. Theory. 8(5), 225–228 (1962)CrossRef Fucks, W.: Mathematical analysis of formal structure of music. IEEE Trans. Inform. Theory. 8(5), 225–228 (1962)CrossRef
Zurück zum Zitat Gardiner, J.M., Kaminska, Z., Dixon, M., Java, R.I.: Repetition of previously novel melodies sometimes increases both remember and know responses in recognition memory. Psychon. Bull. Rev. 3(3), 366–371 (1996)CrossRef Gardiner, J.M., Kaminska, Z., Dixon, M., Java, R.I.: Repetition of previously novel melodies sometimes increases both remember and know responses in recognition memory. Psychon. Bull. Rev. 3(3), 366–371 (1996)CrossRef
Zurück zum Zitat Goto, M.: An audio-based real-time beat tracking system for music with or without drum-sounds. J. New Music Res. 30, 159–171 (2001)CrossRef Goto, M.: An audio-based real-time beat tracking system for music with or without drum-sounds. J. New Music Res. 30, 159–171 (2001)CrossRef
Zurück zum Zitat Gouyon, F.: A computational approach to rhythm description: audio features for the computation of rhythm periodicity functions and their use in tempo induction and music content processing. Ph.D. Thesis, Universitat Pompeu Fabra, Departament de Tecnologia, Barcelona (2005) Gouyon, F.: A computational approach to rhythm description: audio features for the computation of rhythm periodicity functions and their use in tempo induction and music content processing. Ph.D. Thesis, Universitat Pompeu Fabra, Departament de Tecnologia, Barcelona (2005)
Zurück zum Zitat Gouyon, F., Dixon, S.: A review of automatic rhythm description systems. Comput. Music. J. 29, 34–54 (2005)CrossRef Gouyon, F., Dixon, S.: A review of automatic rhythm description systems. Comput. Music. J. 29, 34–54 (2005)CrossRef
Zurück zum Zitat Grekow, J.: Broadening musical perception by AKWETS technique visualization. In: Proceedings of the 9th International Conference on Music Perception and Cognition, ICMPC9 (2006) Grekow, J.: Broadening musical perception by AKWETS technique visualization. In: Proceedings of the 9th International Conference on Music Perception and Cognition, ICMPC9 (2006)
Zurück zum Zitat Grekow, J.: An analysis of the harmonic content – main parameters in the AKWET method. In: Proceedings of II Conference on Technologies of Knowledge Exploration and Representation, TERW (2007) Grekow, J.: An analysis of the harmonic content – main parameters in the AKWET method. In: Proceedings of II Conference on Technologies of Knowledge Exploration and Representation, TERW (2007)
Zurück zum Zitat Heister, H.-W.: Weltenmusik und Menschenmusik. Ein Knotenpunkt in den Traditionslinien der universistischen und mathematisch-quadrivialen Musikauffassung. In: Banse, G., Küttler, G., März, R. (Hrsg.) Die Mathematik im System der Wissenschaften. Abhandlungen der Leibniz-Sozietät der Wissenschaften, Bd. 24, S. 193–216. trafo, Berlin (2009) Heister, H.-W.: Weltenmusik und Menschenmusik. Ein Knotenpunkt in den Traditionslinien der universistischen und mathematisch-quadrivialen Musikauffassung. In: Banse, G., Küttler, G., März, R. (Hrsg.) Die Mathematik im System der Wissenschaften. Abhandlungen der Leibniz-Sozietät der Wissenschaften, Bd. 24, S. 193–216. trafo, Berlin (2009)
Zurück zum Zitat Herre, J., Allamanche, E., Ertel, C.: How similar do songs sound? Towards modeling human perception of musical similarity. In: Proceedings of the IEEE Workshop on Applications of Signal Processing to Audio and Acoustics, S. 83–86 (2003) Herre, J., Allamanche, E., Ertel, C.: How similar do songs sound? Towards modeling human perception of musical similarity. In: Proceedings of the IEEE Workshop on Applications of Signal Processing to Audio and Acoustics, S. 83–86 (2003)
Zurück zum Zitat Hu, X., Yang, Y.-H.: Cross-dataset and cross-cultural music mood prediction: a case on Western and Chinese pop songs. IEEE Trans. Affect. Comput. 8(2), 228–240 (2017b)CrossRef Hu, X., Yang, Y.-H.: Cross-dataset and cross-cultural music mood prediction: a case on Western and Chinese pop songs. IEEE Trans. Affect. Comput. 8(2), 228–240 (2017b)CrossRef
Zurück zum Zitat Huang, Y.-S., Yang, Y.-H.: Pop music transformer: beat-based modeling and generation of expressive Pop piano compositions. In: Proceedings of the ACM Multimedia, Oktober (2020) Huang, Y.-S., Yang, Y.-H.: Pop music transformer: beat-based modeling and generation of expressive Pop piano compositions. In: Proceedings of the ACM Multimedia, Oktober (2020)
Zurück zum Zitat Huang, Y.-S., Chou, S.-Y., Yang, Y.-H.: Pop music highlighter: marking the emotion keypoints. Trans. Int. Soc. Music Inf. Retr. 1(1), 68–78 (2018) Huang, Y.-S., Chou, S.-Y., Yang, Y.-H.: Pop music highlighter: marking the emotion keypoints. Trans. Int. Soc. Music Inf. Retr. 1(1), 68–78 (2018)
Zurück zum Zitat Hung, Y.-N., Yang, Y.-H.: Frame-level instrument recognition by timbre and pitch. In: Proceedings of the International Society for Music Information Retrieval Conference (ISMIR), Juni (2018) Hung, Y.-N., Yang, Y.-H.: Frame-level instrument recognition by timbre and pitch. In: Proceedings of the International Society for Music Information Retrieval Conference (ISMIR), Juni (2018)
Zurück zum Zitat Hung, H.-T., Wang, C.-Y., Yang, Y.-H., Wang, H.-M.: Improving automatic Jazz melody generation by transfer learning techniques. In: Proceedings of the Asia Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC), November (2019) Hung, H.-T., Wang, C.-Y., Yang, Y.-H., Wang, H.-M.: Improving automatic Jazz melody generation by transfer learning techniques. In: Proceedings of the Asia Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC), November (2019)
Zurück zum Zitat Jao, K., Lin, Y.-P., Yang, Y.-H., Jung, T.-P.: Using robust principal component analysis to alleviate day-to-day variability in EEG based emotion classification. In: Proceedings of International Conference of the IEEE Engineering in Medicine and Biology (EMBC). August (2015) Jao, K., Lin, Y.-P., Yang, Y.-H., Jung, T.-P.: Using robust principal component analysis to alleviate day-to-day variability in EEG based emotion classification. In: Proceedings of International Conference of the IEEE Engineering in Medicine and Biology (EMBC). August (2015)
Zurück zum Zitat Käfer, B.: Paläolithische Knochenflöten im Ostalpenraum und dem nordöstlich vorgelagerten Lößgebiet (Magisterarbeit). Hochschule für Musik und darstellende Kunst, Wien (1998) Käfer, B.: Paläolithische Knochenflöten im Ostalpenraum und dem nordöstlich vorgelagerten Lößgebiet (Magisterarbeit). Hochschule für Musik und darstellende Kunst, Wien (1998)
Zurück zum Zitat Kim, Y., Schmidt, E., Migneco, R., Morton, B., Richardson, P., Scott, J., Speck, J., Turnbull, D.: Music emotion recognition: a state of the art review. In: Proceedings of the ISMIR (2010) Kim, Y., Schmidt, E., Migneco, R., Morton, B., Richardson, P., Scott, J., Speck, J., Turnbull, D.: Music emotion recognition: a state of the art review. In: Proceedings of the ISMIR (2010)
Zurück zum Zitat Kluge, R.: Skalen und Stimmungen des bronzezeitlichen Glockenspiels aus dem Grabe des Zeng Hou Yi. Zur Deutung eines tonometrischen Befundes. In: Ereignis und Exegese. Musikalische Interpretation – Interpretation der Musik. Festschrift für Hermann Danuser zum 65. Geburtstag, S. 231–242. Argus, Schliengen (2011) Kluge, R.: Skalen und Stimmungen des bronzezeitlichen Glockenspiels aus dem Grabe des Zeng Hou Yi. Zur Deutung eines tonometrischen Befundes. In: Ereignis und Exegese. Musikalische Interpretation – Interpretation der Musik. Festschrift für Hermann Danuser zum 65. Geburtstag, S. 231–242. Argus, Schliengen (2011)
Zurück zum Zitat Knees, P., Pampalk, E., Widmer, G.: Artist classification with web-based data. In: Proceedings of the 5th International Conference on Music Information Retrieval, S. 517–524. Barcelona (2004) Knees, P., Pampalk, E., Widmer, G.: Artist classification with web-based data. In: Proceedings of the 5th International Conference on Music Information Retrieval, S. 517–524. Barcelona (2004)
Zurück zum Zitat Knepler, G.: Geschichte als Weg zum Musikverständnis. Zu Theorie, Methode und Geschichte der Musikgeschichtsschreibung. Reclam Universalbibliothek, Leipzig (1977) (2. erweiterte Auflage (1982)) Knepler, G.: Geschichte als Weg zum Musikverständnis. Zu Theorie, Methode und Geschichte der Musikgeschichtsschreibung. Reclam Universalbibliothek, Leipzig (1977) (2. erweiterte Auflage (1982))
Zurück zum Zitat Korhonen, M.D., Clausi, D.A., Jernigan, M.E.: Modeling emotional content of music using system identification. IEEE Trans. Syst. Man Cybern. B Cybern. 36(3), 588–599 (2005)CrossRef Korhonen, M.D., Clausi, D.A., Jernigan, M.E.: Modeling emotional content of music using system identification. IEEE Trans. Syst. Man Cybern. B Cybern. 36(3), 588–599 (2005)CrossRef
Zurück zum Zitat Kostek, B., Czyzewski, A.: Representing musical instrument sounds for their automatic classification. J. Audio Eng. Soc. 49, 768–785 (2001) Kostek, B., Czyzewski, A.: Representing musical instrument sounds for their automatic classification. J. Audio Eng. Soc. 49, 768–785 (2001)
Zurück zum Zitat Kostek, B., Wojcik, J.: Machine learning system for estimation rhythmic salience of sounds. Int. J. Knowl.-Based Intell. Eng. Syst. 9(4), 275–284 (2005) Kostek, B., Wojcik, J.: Machine learning system for estimation rhythmic salience of sounds. Int. J. Knowl.-Based Intell. Eng. Syst. 9(4), 275–284 (2005)
Zurück zum Zitat Kostek, B., Wojcik, J., Holonowicz, P.: Estimation the rhythmic salience of sound with association rules and neural network. In: Intelligent Information Systems, Gdansk, Poland. Advances in Soft Computing (AINSC, Bd. 31) (2005) Kostek, B., Wojcik, J., Holonowicz, P.: Estimation the rhythmic salience of sound with association rules and neural network. In: Intelligent Information Systems, Gdansk, Poland. Advances in Soft Computing (AINSC, Bd. 31) (2005)
Zurück zum Zitat Koza, J.R.: Genetic Programming: On the Programming of Computers by Means of Natural Selection. MIT Press, Cambridge, MA (1992)MATH Koza, J.R.: Genetic Programming: On the Programming of Computers by Means of Natural Selection. MIT Press, Cambridge, MA (1992)MATH
Zurück zum Zitat Kunkel, M.: Gibt es neue Typen des Engagements in der neuesten Musik? Positionen und Negationen. In: Phleps, T., Reich, W. (Hrsg.) Musik-Kontexte. Festschrift für Hanns-Werner Heister, S. 472–487. Verlagshaus Monsenstein und Vannerdat, Münster (2011) Kunkel, M.: Gibt es neue Typen des Engagements in der neuesten Musik? Positionen und Negationen. In: Phleps, T., Reich, W. (Hrsg.) Musik-Kontexte. Festschrift für Hanns-Werner Heister, S. 472–487. Verlagshaus Monsenstein und Vannerdat, Münster (2011)
Zurück zum Zitat Kurth, F., Gehrmann, T., Müller, M.: The cyclic-beat spectrum: Tempo-related audio features for time-scale invariant audio identification. In: Proceedings of the 7th International Conference on Music Information Retrieval, S. 35–40 (2006) Kurth, F., Gehrmann, T., Müller, M.: The cyclic-beat spectrum: Tempo-related audio features for time-scale invariant audio identification. In: Proceedings of the 7th International Conference on Music Information Retrieval, S. 35–40 (2006)
Zurück zum Zitat Lee, C.-T., Yang, Y.-H., Chen, H.-H.: Multipitch estimation of piano music by exemplar-based sparse representation. IEEE Trans. Multimedia. 14(3), 608–618 (2012)CrossRef Lee, C.-T., Yang, Y.-H., Chen, H.-H.: Multipitch estimation of piano music by exemplar-based sparse representation. IEEE Trans. Multimedia. 14(3), 608–618 (2012)CrossRef
Zurück zum Zitat León, T., Liern Carrión, V.: Obtaining the compatibility between musicians using soft computing. In: Hüllermeier, E., Kruse, R., Hoffmann, F. (Hrsg.) International Conference on Information Processing and Management of Uncertainty in Knowledge-Based Systems, IPMU 2010 Part II, CCIS 81, Dortmund, Germany, 28. Juni–2. Juli, 2010, S. 75–84. Springer, Berlin/Heidelberg (2010) León, T., Liern Carrión, V.: Obtaining the compatibility between musicians using soft computing. In: Hüllermeier, E., Kruse, R., Hoffmann, F. (Hrsg.) International Conference on Information Processing and Management of Uncertainty in Knowledge-Based Systems, IPMU 2010 Part II, CCIS 81, Dortmund, Germany, 28. Juni–2. Juli, 2010, S. 75–84. Springer, Berlin/Heidelberg (2010)
Zurück zum Zitat León, T., Liern Carrión, V.: Music and similarity based reasoning. In: Seising, R., Sanz, V. (Hrsg.) Computing in Humanities and Social Sciences. Studies in Fuzziness and Soft Computing, Bd. 273, S. 451–468. Springer, Berlin/Heidelberg (2012)CrossRef León, T., Liern Carrión, V.: Music and similarity based reasoning. In: Seising, R., Sanz, V. (Hrsg.) Computing in Humanities and Social Sciences. Studies in Fuzziness and Soft Computing, Bd. 273, S. 451–468. Springer, Berlin/Heidelberg (2012)CrossRef
Zurück zum Zitat Lerch, A.: Software-based extraction of objective parameters from music performances. Phil. Diss., TU Berlin (2008) Lerch, A.: Software-based extraction of objective parameters from music performances. Phil. Diss., TU Berlin (2008)
Zurück zum Zitat Lesaffre, M., Tanghe, K., Martens, G., Moelants, D., Leman, M., De Baets, B., De Meyer, H., Martens, J.P.: The MAMI query-by-voice experiment: collecting and annotating vocal queries for music information retrieval. In: Proceedings of the 4th International Conference on Music Information Retrieval, Baltimore, and Library of Congress, Washington, DC, S. 65–71 (2003) Lesaffre, M., Tanghe, K., Martens, G., Moelants, D., Leman, M., De Baets, B., De Meyer, H., Martens, J.P.: The MAMI query-by-voice experiment: collecting and annotating vocal queries for music information retrieval. In: Proceedings of the 4th International Conference on Music Information Retrieval, Baltimore, and Library of Congress, Washington, DC, S. 65–71 (2003)
Zurück zum Zitat Levy, M., Sandler, M.: Lightweight measures for timbral similarity of musical audio. In: Proceedings of the First ACM Workshop on Audio and Music Computing Multimedia (AMCMM), S. 27–36. ACM, New York (2006)CrossRef Levy, M., Sandler, M.: Lightweight measures for timbral similarity of musical audio. In: Proceedings of the First ACM Workshop on Audio and Music Computing Multimedia (AMCMM), S. 27–36. ACM, New York (2006)CrossRef
Zurück zum Zitat Li, T., Ogihara, M.: Detecting emotion in music. In: Proceedings of the Fifth International Symposium on Music Information Retrieval, S. 239–240 (2003) Li, T., Ogihara, M.: Detecting emotion in music. In: Proceedings of the Fifth International Symposium on Music Information Retrieval, S. 239–240 (2003)
Zurück zum Zitat Li, T., Ogihara, M., Li, Q.: A comparative study on content-based music genre classification. In: Proceedings of the 26th International ACM SIGIR Conference on Research and Development in Information Retrieval, S. 282–289. ACM, New York (2003) Li, T., Ogihara, M., Li, Q.: A comparative study on content-based music genre classification. In: Proceedings of the 26th International ACM SIGIR Conference on Research and Development in Information Retrieval, S. 282–289. ACM, New York (2003)
Zurück zum Zitat Lidy, T., Rauber, A.: Evaluation of feature extractors and psycho-acoustic transformations for music genre classification. In: Proceedings of the 6th International Conference on Music Information Retrieval, S. 34–41 (2005) Lidy, T., Rauber, A.: Evaluation of feature extractors and psycho-acoustic transformations for music genre classification. In: Proceedings of the 6th International Conference on Music Information Retrieval, S. 34–41 (2005)
Zurück zum Zitat Ligges, U.: Transkription monophoner Gesangszeitreihen (Diss.), Universität Dortmund, Fachbereich Statistik. Dortmund (2006) Ligges, U.: Transkription monophoner Gesangszeitreihen (Diss.), Universität Dortmund, Fachbereich Statistik. Dortmund (2006)
Zurück zum Zitat Lin, Y.-C., Yang, Y.-H., Chen, H.-H.: Exploiting online tags for music emotion classification. In: ACM Transactions on Multimedia Computing, Communications, and Applications, Bd. 7S, Nr. 1. Special Issue on Social Media Oktober (2011) Lin, Y.-C., Yang, Y.-H., Chen, H.-H.: Exploiting online tags for music emotion classification. In: ACM Transactions on Multimedia Computing, Communications, and Applications, Bd. 7S, Nr. 1. Special Issue on Social Media Oktober (2011)
Zurück zum Zitat Lin, Y.-P., Yang, Y.-H., Jung, T.-P.: Fusion of Electroencephalogram dynamics and musical contents for estimating emotional responses in music listening. Front. Neurosci. 8(94), 1–14 (2014) Lin, Y.-P., Yang, Y.-H., Jung, T.-P.: Fusion of Electroencephalogram dynamics and musical contents for estimating emotional responses in music listening. Front. Neurosci. 8(94), 1–14 (2014)
Zurück zum Zitat Liu, D., Lu, L., Zhang, N.: Automatic mood detection from acoustic music data. In: Proceedings of the Fifth International Symposium on Music Information Retrieval (2003) Liu, D., Lu, L., Zhang, N.: Automatic mood detection from acoustic music data. In: Proceedings of the Fifth International Symposium on Music Information Retrieval (2003)
Zurück zum Zitat Liu, C., Yang, Y., Wu, P., Chen, H.: Detecting and classifying emotion in popular music. In: Proceedings of the 9th Joint Conference on Information Sciences (JCIS)/CVPRIP (2006) Liu, C., Yang, Y., Wu, P., Chen, H.: Detecting and classifying emotion in popular music. In: Proceedings of the 9th Joint Conference on Information Sciences (JCIS)/CVPRIP (2006)
Zurück zum Zitat Lu, L., Liu, D., Zhang, H.J.: Automatic mood detection and tracking of music audio signals. IEEE Trans. Audio, Speech, Lang. Proc. 14(1), 5 (2006)CrossRef Lu, L., Liu, D., Zhang, H.J.: Automatic mood detection and tracking of music audio signals. IEEE Trans. Audio, Speech, Lang. Proc. 14(1), 5 (2006)CrossRef
Zurück zum Zitat Markuse, B., Schneider, A.: Ähnlichkeit, Nähe, Distanz: zur Anwendung multidimensionaler Skalierung in musik-wissenschaftlichen Untersuchungen. Systematische Musikwissenschaft/Systematic Musicology/Musicologie systematique. 4, 53–89 (1996) Markuse, B., Schneider, A.: Ähnlichkeit, Nähe, Distanz: zur Anwendung multidimensionaler Skalierung in musik-wissenschaftlichen Untersuchungen. Systematische Musikwissenschaft/Systematic Musicology/Musicologie systematique. 4, 53–89 (1996)
Zurück zum Zitat Mauch, M., Fujihara, M. Yoshii, K. Goto, M.: Timbre and melody features for the recognition of vocal activity and instrumental solos in polyphonic music. International Society for Music Information Retrieval Conference: Proceedings of the 12th International Society for Music Information Retrieval Conference, ISMIR 2011, Miami, 24.–28. Oktober (2011) Mauch, M., Fujihara, M. Yoshii, K. Goto, M.: Timbre and melody features for the recognition of vocal activity and instrumental solos in polyphonic music. International Society for Music Information Retrieval Conference: Proceedings of the 12th International Society for Music Information Retrieval Conference, ISMIR 2011, Miami, 24.–28. Oktober (2011)
Zurück zum Zitat Mazzola, G., Mannone, M., Pang, Y.: Cool Math for Hot Music. A First Introduction to Mathematics for Music Theorists. Computational Music Science, Serie bearbeitet von Mazzola, G., Andreatta, M. Springer, Berlin/Heidelberg (2016)MATH Mazzola, G., Mannone, M., Pang, Y.: Cool Math for Hot Music. A First Introduction to Mathematics for Music Theorists. Computational Music Science, Serie bearbeitet von Mazzola, G., Andreatta, M. Springer, Berlin/Heidelberg (2016)MATH
Zurück zum Zitat McKay, C., Fujinaga, I.: Automatic genre classification using large high-level musical feature sets. In: Proceedings of the International Conference on Music Information Retrieval, S. 525–530 (2004) McKay, C., Fujinaga, I.: Automatic genre classification using large high-level musical feature sets. In: Proceedings of the International Conference on Music Information Retrieval, S. 525–530 (2004)
Zurück zum Zitat Mörchen, F., Ultsch, A., Thies, M., Löhken, I., Nöcker, M., Stamm, C., Efthymiou, N., Kümmerer, M.: MusicMiner: Visualizing Timbre Distances of Music as Topographical Maps. Technical Report, Department of Mathematics and Computer Science, University of Marburg (2005) Mörchen, F., Ultsch, A., Thies, M., Löhken, I., Nöcker, M., Stamm, C., Efthymiou, N., Kümmerer, M.: MusicMiner: Visualizing Timbre Distances of Music as Topographical Maps. Technical Report, Department of Mathematics and Computer Science, University of Marburg (2005)
Zurück zum Zitat Müllensiefen, D., Frieler, K.: Cognitive adequacy in the measurement of melodic similarity. Algorithmic vs. human judgments. Comput. MusiSp. 13, 147–176 (2004a) Müllensiefen, D., Frieler, K.: Cognitive adequacy in the measurement of melodic similarity. Algorithmic vs. human judgments. Comput. MusiSp. 13, 147–176 (2004a)
Zurück zum Zitat Müllensiefen, D., Frieler, K.: Optimizing measures of melodic similarity for the exploration of a large folk song database. In: 5th International Conference on Music Information Retrieval, Audiovisual Institute, Universitat Pompeu Fabra, Barcelona, S 274–280 (2004b) Müllensiefen, D., Frieler, K.: Optimizing measures of melodic similarity for the exploration of a large folk song database. In: 5th International Conference on Music Information Retrieval, Audiovisual Institute, Universitat Pompeu Fabra, Barcelona, S 274–280 (2004b)
Zurück zum Zitat Nagel, F., Kopiez, R., Grewe, O., Altenmüller, E.: EMuJoy. Software for the continuous measurement of emotions in music. Behav. Res. Methods. 39(2), 283–290 (2007)CrossRef Nagel, F., Kopiez, R., Grewe, O., Altenmüller, E.: EMuJoy. Software for the continuous measurement of emotions in music. Behav. Res. Methods. 39(2), 283–290 (2007)CrossRef
Zurück zum Zitat Niedermayer, B.: Automatische Erkennung von Cover-Versionen und Plagiaten in moderner Pop- und Rockmusik, Magisterarbeit zur Erlangung des akademischen Grades in der Studienrichtung Informatik. Institut für Computational Perception, Linz (2007) Niedermayer, B.: Automatische Erkennung von Cover-Versionen und Plagiaten in moderner Pop- und Rockmusik, Magisterarbeit zur Erlangung des akademischen Grades in der Studienrichtung Informatik. Institut für Computational Perception, Linz (2007)
Zurück zum Zitat Pampalk, E.: Audio-based music similarity and retrieval: combining a spectral similarity model with information extracted from fluctuation patterns. In: 3rd Annual Music Information Retrieval eXchange (MIREX’06), o. S. http://pampalk.at/publications/ (2006a) Pampalk, E.: Audio-based music similarity and retrieval: combining a spectral similarity model with information extracted from fluctuation patterns. In: 3rd Annual Music Information Retrieval eXchange (MIREX’06), o. S. http://​pampalk.​at/​publications/​ (2006a)
Zurück zum Zitat Pampalk, E.: Computational models of music similarity and their application in music information retrieval. Ph.D. thesis, Computer Science Department, Technical University Vienna (2006b) Pampalk, E.: Computational models of music similarity and their application in music information retrieval. Ph.D. thesis, Computer Science Department, Technical University Vienna (2006b)
Zurück zum Zitat Pampalk, E., Dixon, S., Widmer, G.: On the evaluation of perceptual similarity measures for music. In: Proceedings of the International Conference on Digital Audio Effects, S. 6–12 (2003) Pampalk, E., Dixon, S., Widmer, G.: On the evaluation of perceptual similarity measures for music. In: Proceedings of the International Conference on Digital Audio Effects, S. 6–12 (2003)
Zurück zum Zitat Pampalk, E., Flexer, A., Widmer, G.: Hierarchical organization and description of music collections at the artist level. In: Proceedings of the 9th European Conference on Research and Advanced Technology for Digital Libraries, S. 37–48 (2005) Pampalk, E., Flexer, A., Widmer, G.: Hierarchical organization and description of music collections at the artist level. In: Proceedings of the 9th European Conference on Research and Advanced Technology for Digital Libraries, S. 37–48 (2005)
Zurück zum Zitat Pang, H., Yoon, D.: Automatic detection of vibrato in monophonic music. Pattern Recogn. 38(7), 1135–1138 (2005)CrossRef Pang, H., Yoon, D.: Automatic detection of vibrato in monophonic music. Pattern Recogn. 38(7), 1135–1138 (2005)CrossRef
Zurück zum Zitat Pesic, P.: Music and the Making of Modern Science. MIT Press, Cambridge, MA (2014)CrossRef Pesic, P.: Music and the Making of Modern Science. MIT Press, Cambridge, MA (2014)CrossRef
Zurück zum Zitat Ras, Z.W., Dardzinska, A.: Solving failing queries through cooperation and collaboration. Special issue on web resources access. World Wide Web J. 9(2), 173–186 (2006)CrossRef Ras, Z.W., Dardzinska, A.: Solving failing queries through cooperation and collaboration. Special issue on web resources access. World Wide Web J. 9(2), 173–186 (2006)CrossRef
Zurück zum Zitat Rossignol, S., Depalle, P., Soumagne, J., Rodet, X., Collette, J.L.: Vibrato: detection, estimation, extraction, modification. In: Proceedings of the COST-G6 Workshop on Digital Audio Effects (DAFx-99) (1999) Rossignol, S., Depalle, P., Soumagne, J., Rodet, X., Collette, J.L.: Vibrato: detection, estimation, extraction, modification. In: Proceedings of the COST-G6 Workshop on Digital Audio Effects (DAFx-99) (1999)
Zurück zum Zitat Röver, C., Klefenz, F., Weihs, C.: Identification of musical instruments by means of the Hough-transformation. In: Weihs, C., Gaul, W. (Hrsg.) Classification – The Ubiquitous Challenge, S. 608–615. Springer, Berlin (2005)CrossRef Röver, C., Klefenz, F., Weihs, C.: Identification of musical instruments by means of the Hough-transformation. In: Weihs, C., Gaul, W. (Hrsg.) Classification – The Ubiquitous Challenge, S. 608–615. Springer, Berlin (2005)CrossRef
Zurück zum Zitat Schedel, M., Pohle, T.P., Knees, P., Widmer, G.: Assigning and visualizing music genres by web-based co-occurance analysis. In: Proceedings of the 7th International Conference on Music Information Retrieval, S. 260–265 (2006) Schedel, M., Pohle, T.P., Knees, P., Widmer, G.: Assigning and visualizing music genres by web-based co-occurance analysis. In: Proceedings of the 7th International Conference on Music Information Retrieval, S. 260–265 (2006)
Zurück zum Zitat Scheirer, E.D.: Tempo and beat analysis of acoustic musical signals. J. Acoust. Soc. Am. 103(1), 588–601 (1998)CrossRef Scheirer, E.D.: Tempo and beat analysis of acoustic musical signals. J. Acoust. Soc. Am. 103(1), 588–601 (1998)CrossRef
Zurück zum Zitat Schmidt, K.-H.: Zitate in musterverarbeitenden Forschungsprozessen. Zeitschrift für Semiotik. 14(1–2), 111–121 (1992) Schmidt, K.-H.: Zitate in musterverarbeitenden Forschungsprozessen. Zeitschrift für Semiotik. 14(1–2), 111–121 (1992)
Zurück zum Zitat Seising, R., Zadeh, L.A.: On Fuzzy Sets and the Precisiation of Meaning – An Interview with Prof. Dr. Lotfi A. Zadeh. APHSC 1:2013 – DOI tbp – http://www.aphsc.org (2013) Seising, R., Zadeh, L.A.: On Fuzzy Sets and the Precisiation of Meaning – An Interview with Prof. Dr. Lotfi A. Zadeh. APHSC 1:2013 – DOI tbp – http://​www.​aphsc.​org (2013)
Zurück zum Zitat Smaragdis, P., Brown, J.: Non-negative matrix factorization for polyphonic music transcription. In: IEEE Workshop on Applications of Signal Processing to Audio and Acoustics, S. 177–180 (2003) Smaragdis, P., Brown, J.: Non-negative matrix factorization for polyphonic music transcription. In: IEEE Workshop on Applications of Signal Processing to Audio and Acoustics, S. 177–180 (2003)
Zurück zum Zitat Soleymani, M., Yang, Y.-H., Irie, G., Hanjalic, A.: Challenges and perspectives for affective analysis in multimedia. IEEE Trans. Affect. Comput. 6(3), 206–208 (2015)CrossRef Soleymani, M., Yang, Y.-H., Irie, G., Hanjalic, A.: Challenges and perspectives for affective analysis in multimedia. IEEE Trans. Affect. Comput. 6(3), 206–208 (2015)CrossRef
Zurück zum Zitat Steinbeck, W.: Struktur und Ähnlichkeit. Methoden automatisierter Melodieanalyse. Kieler Schriften zur Musikwissenschaft, Bd. XXV. Bärenreiter, Kassel (1982) Steinbeck, W.: Struktur und Ähnlichkeit. Methoden automatisierter Melodieanalyse. Kieler Schriften zur Musikwissenschaft, Bd. XXV. Bärenreiter, Kassel (1982)
Zurück zum Zitat Su, L., Yang, Y.-H.: Combining spectral and temporal representations for multipitch estimation of polyphonic music. IEEE/ACM Trans. Audio Speech Lang. Process. 23(10), 1600–1612 (2015)CrossRef Su, L., Yang, Y.-H.: Combining spectral and temporal representations for multipitch estimation of polyphonic music. IEEE/ACM Trans. Audio Speech Lang. Process. 23(10), 1600–1612 (2015)CrossRef
Zurück zum Zitat Tamagnan, F., Yang, Y.-H.: Drum fills detection and generation. In: Proceedings of the International Symposium on Computer Music Multidisciplinary Research (CMMR), Oktober (2019) Tamagnan, F., Yang, Y.-H.: Drum fills detection and generation. In: Proceedings of the International Symposium on Computer Music Multidisciplinary Research (CMMR), Oktober (2019)
Zurück zum Zitat Temperley, D., Sleator, D.: Modeling meter and harmony: a preference-rule approach. Comput. Music. J. 15(1), 10–27 (1999)CrossRef Temperley, D., Sleator, D.: Modeling meter and harmony: a preference-rule approach. Comput. Music. J. 15(1), 10–27 (1999)CrossRef
Zurück zum Zitat Teng, Y.-C., Kuo, Y.-S., Yang, Y.-H.: A large in-situ dataset for context-aware music recommendation on smartphones. In: IEEE International Conference on Multimedia and Expo, Juli (2013) Teng, Y.-C., Kuo, Y.-S., Yang, Y.-H.: A large in-situ dataset for context-aware music recommendation on smartphones. In: IEEE International Conference on Multimedia and Expo, Juli (2013)
Zurück zum Zitat Tzanetakis, G., Cook, P.: Musical genre classification of audio signals. IEEE Trans. Speech Audio Process. 10(5), 293–302 (2002)CrossRef Tzanetakis, G., Cook, P.: Musical genre classification of audio signals. IEEE Trans. Speech Audio Process. 10(5), 293–302 (2002)CrossRef
Zurück zum Zitat Tzanetakis, G., Ermolinskyi, A., Cook, P.: Beyond the query-by-example paradigm: new query interfaces for music. In: Proceedings of the International Computer Music Conference, S. 177–183 (2002a) Tzanetakis, G., Ermolinskyi, A., Cook, P.: Beyond the query-by-example paradigm: new query interfaces for music. In: Proceedings of the International Computer Music Conference, S. 177–183 (2002a)
Zurück zum Zitat Tzanetakis, G., Ermolinskyi, A., Cook, P.: Pitch histograms in audio and symbolic music information retrieval. In: Proceedings of the 3rd International Conference on Music Information Retrieval, S. 31–38 (2002b) Tzanetakis, G., Ermolinskyi, A., Cook, P.: Pitch histograms in audio and symbolic music information retrieval. In: Proceedings of the 3rd International Conference on Music Information Retrieval, S. 31–38 (2002b)
Zurück zum Zitat Ultsch, A.: Self-organizing neural networks for visualization and classification. In: Opitz, O., Lausen, B., Klar, R. (Hrsg.) Information and Classification – Concepts, Methods, and Applications, S. 307–313. Springer, Berlin (1993)CrossRef Ultsch, A.: Self-organizing neural networks for visualization and classification. In: Opitz, O., Lausen, B., Klar, R. (Hrsg.) Information and Classification – Concepts, Methods, and Applications, S. 307–313. Springer, Berlin (1993)CrossRef
Zurück zum Zitat Ultsch, A.: Self Organizing Neural Networks Perform different from Statistical K-means Clustering. In: BMBF Statusseminar Künstliche Intelligenz, Neuroinformatik und Intelligente Systeme, S. 55–74. Transcript, München/Bielefeld (1996) Ultsch, A.: Self Organizing Neural Networks Perform different from Statistical K-means Clustering. In: BMBF Statusseminar Künstliche Intelligenz, Neuroinformatik und Intelligente Systeme, S. 55–74. Transcript, München/Bielefeld (1996)
Zurück zum Zitat Wang, M., Zhang, N., Zhu, H.: User-adaptive music emotion recognition. 7th International Conference on Signal Processing (ICSP) (2004) Wang, M., Zhang, N., Zhu, H.: User-adaptive music emotion recognition. 7th International Conference on Signal Processing (ICSP) (2004)
Zurück zum Zitat Wang, J.-C., Yang, J.-H., Jhuo, I.-H., Lin, Y.-Y., Wang, H.-M.: The acousticvisual emotion Gaussians model for automatic generation of music video. In: ACM International Conference on Multimedia (MM), Grand Challenge Solution Paper (First Prize), November (2012a) Wang, J.-C., Yang, J.-H., Jhuo, I.-H., Lin, Y.-Y., Wang, H.-M.: The acousticvisual emotion Gaussians model for automatic generation of music video. In: ACM International Conference on Multimedia (MM), Grand Challenge Solution Paper (First Prize), November (2012a)
Zurück zum Zitat Wang, Y.-C., Yang, Y.-H., Chang, K., Wang, H.-M., Jeng, S.-K.: Exploring the relationship between categorical and dimensional emotion semantics of music. In: International Workshop on Music Information Retrieval with User-Centered and Multimodal Strategies (MIRUM), in Conjunction with ACM Multimedia (MM), November (2012b) Wang, Y.-C., Yang, Y.-H., Chang, K., Wang, H.-M., Jeng, S.-K.: Exploring the relationship between categorical and dimensional emotion semantics of music. In: International Workshop on Music Information Retrieval with User-Centered and Multimodal Strategies (MIRUM), in Conjunction with ACM Multimedia (MM), November (2012b)
Zurück zum Zitat Wieczorkowska, A., Raś, Z.W.: Do we need automatic indexing of musical instruments? In: Bolc, L., Michalewicz, Z., Nishida, T. (Hrsg.) IMTCI 2004. LNCS (LNAI), Bd. 3490, S. 239–245. Springer, Heidelberg (2005) Wieczorkowska, A., Raś, Z.W.: Do we need automatic indexing of musical instruments? In: Bolc, L., Michalewicz, Z., Nishida, T. (Hrsg.) IMTCI 2004. LNCS (LNAI), Bd. 3490, S. 239–245. Springer, Heidelberg (2005)
Zurück zum Zitat Wieczorkowska, A., Synak, P., Ras, Z.: Multi-label classification of emotions in music. In: Intelligent Information Processing and Web Mining, Advances in Soft Computing, Proceedings of IIS 2006 Symposium, Ustron, Bd. 35, S. 307–315 (2006) Wieczorkowska, A., Synak, P., Ras, Z.: Multi-label classification of emotions in music. In: Intelligent Information Processing and Web Mining, Advances in Soft Computing, Proceedings of IIS 2006 Symposium, Ustron, Bd. 35, S. 307–315 (2006)
Zurück zum Zitat Wieczorkowska, A., Ras, Z.W., Zhang, X., Lewis, R.: Multi-way hierarchic classification of musical instrument sounds. In: IEEE CS International Conference on Multimedia and Ubiquitous Engineering (MUE 2007), Seoul, April 26–28 (2007) Wieczorkowska, A., Ras, Z.W., Zhang, X., Lewis, R.: Multi-way hierarchic classification of musical instrument sounds. In: IEEE CS International Conference on Multimedia and Ubiquitous Engineering (MUE 2007), Seoul, April 26–28 (2007)
Zurück zum Zitat Wojcik, J.: Methods of forming and ranking rhythmic hypotheses in musical pieces. Ph.D. Thesis, Faculty of Electronics, Telecommunications and Informatics. Gdansk University of Technology, Gdansk (2006) Wojcik, J.: Methods of forming and ranking rhythmic hypotheses in musical pieces. Ph.D. Thesis, Faculty of Electronics, Telecommunications and Informatics. Gdansk University of Technology, Gdansk (2006)
Zurück zum Zitat Wojcik, J., Kostek, B.: Representations of music in ranking rhythmic hypotheses. In: Advances in Music Information Retrieval. Studies in Computational Intelligence, Bd. 274, S. 39–64. Springer, Berlin/Heidelberg (2010) Wojcik, J., Kostek, B.: Representations of music in ranking rhythmic hypotheses. In: Advances in Music Information Retrieval. Studies in Computational Intelligence, Bd. 274, S. 39–64. Springer, Berlin/Heidelberg (2010)
Zurück zum Zitat Yang, Y.-H. Chen, H.-H.: Music emotion ranking. In: IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April (2009a) Yang, Y.-H. Chen, H.-H.: Music emotion ranking. In: IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April (2009a)
Zurück zum Zitat Yang, Y.-H., Chen, H.-H.: iMR: interactive music recommendation via active interactive genetic algorithm. In: Workshop on Computer Music and Audio Technology (WOCMAT) (2009b) Yang, Y.-H., Chen, H.-H.: iMR: interactive music recommendation via active interactive genetic algorithm. In: Workshop on Computer Music and Audio Technology (WOCMAT) (2009b)
Zurück zum Zitat Yang, Y.-H., Chen, H.-H.: Prediction of the distribution of perceived music emotions using discrete samples. IEEE Trans. Audio Speech Lang. Process. 19(7), 2184–2196 (2011)CrossRef Yang, Y.-H., Chen, H.-H.: Prediction of the distribution of perceived music emotions using discrete samples. IEEE Trans. Audio Speech Lang. Process. 19(7), 2184–2196 (2011)CrossRef
Zurück zum Zitat Yang, Y.-H., Liu, J.-Y.: Quantitative study of music listening behavior in a social and affective context. IEEE Trans. Multimedia. 15(6), 1304–1315, Special issue on social media as sensors (2013)MathSciNetCrossRef Yang, Y.-H., Liu, J.-Y.: Quantitative study of music listening behavior in a social and affective context. IEEE Trans. Multimedia. 15(6), 1304–1315, Special issue on social media as sensors (2013)MathSciNetCrossRef
Zurück zum Zitat Yeh, Y.-C., Liu, J.-Y., Hsiao, W.-H., Huang, Y.-S.,Yang, Y.-H.: Learning to generate Jazz and Pop piano music from audio via MIR techniques. In: International Society for Music Information Retrieval Conference (ISMIR) Demo Paper, November (2019) Yeh, Y.-C., Liu, J.-Y., Hsiao, W.-H., Huang, Y.-S.,Yang, Y.-H.: Learning to generate Jazz and Pop piano music from audio via MIR techniques. In: International Society for Music Information Retrieval Conference (ISMIR) Demo Paper, November (2019)
Zurück zum Zitat Zadeh, L.A.: Precisication of meaning via translation into PRUF. In: Vaina, L., Hintikka, J. (Hrsg.) Cognitive Constraints on Communication, S. 373–402. Kluwer Academic Publishers B.V., Alphen an den Rijn (1984)CrossRef Zadeh, L.A.: Precisication of meaning via translation into PRUF. In: Vaina, L., Hintikka, J. (Hrsg.) Cognitive Constraints on Communication, S. 373–402. Kluwer Academic Publishers B.V., Alphen an den Rijn (1984)CrossRef
Zurück zum Zitat Zoltai, D.: Ethos und Affekt. Geschichte der philosophischen Musikästhetik von den Anfängen bis zu Hegel. Akademie, Berlin/Budapest (1970) Zoltai, D.: Ethos und Affekt. Geschichte der philosophischen Musikästhetik von den Anfängen bis zu Hegel. Akademie, Berlin/Budapest (1970)
Zurück zum Zitat Takeda, H. et al.: Rhythm and tempo analysis toward automatic music transcription. In: IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2007 Volume: 4. https://doi.org/10.1109/ICASSP.2007.367320 (2007) Zugegriffen: 19. Juli 2020 Takeda, H. et al.: Rhythm and tempo analysis toward automatic music transcription. In: IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2007 Volume: 4. https://​doi.​org/​10.​1109/​ICASSP.​2007.​367320 (2007) Zugegriffen: 19. Juli 2020
Zurück zum Zitat Yang, Y.-H. Chen, H.-H.: Music emotion ranking. In: IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Taipei, Taiwan (2009a) Yang, Y.-H. Chen, H.-H.: Music emotion ranking. In: IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Taipei, Taiwan (2009a)
Metadaten
Titel
Das Prinzip Schärfung (I): Filterung. Kosmos aus Chaos
verfasst von
Hanns-Werner Heister
Copyright-Jahr
2021
Verlag
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-63006-8_5