Text Analytics in Marketing
A Practical Guide for Students and Researchers
- 2026
- Buch
- Verfasst von
- Daniel Dan
- Thomas Reutterer
- Buchreihe
- Classroom Companion: Business
- Verlag
- Springer Nature Switzerland
Über dieses Buch
Über dieses Buch
This book offers a comprehensive introduction to text mining and text analytics tailored for marketers. It presents key techniques for analyzing, compressing, classifying, and visualizing textual data and user-generated content (UGC), with a particular emphasis on using R software. These methods enable readers to effectively prepare and manipulate textual data to uncover actionable marketing insights.
In today’s digital landscape, analyzing online chatter, sentiment, preferences, and other forms of electronic word-of-mouth has become an essential skill for marketing researchers and professionals. Through a rich collection of examples, program code, and hands-on exercises, this book equips both students and marketing managers with the theoretical foundation and practical skills needed to apply text-based data analysis to contemporary marketing challenges.
Inhaltsverzeichnis
-
Frontmatter
-
Chapter 1. Introduction to Text Analytics in Marketing: A Practical Guide for Students and Researchers
Daniel Dan, Thomas ReuttererDieses Buch vertieft die Grundlagen und fortgeschrittenen Techniken der Textanalyse und konzentriert sich auf ihre Anwendungen im Marketing. Es behandelt wesentliche Themen wie die Beschaffung und Vorverarbeitung von Textdaten, grundlegende Textanalyse, Clustering, Klassifizierung, Themenmodellierung, Stimmungsanalyse, Entitätserkennung und Zusammenfassung. Das Buch stellt auch fortgeschrittene Techniken wie Word-Einbettungen und Transformatorenmodelle vor und verknüpft traditionelle NLP-Methoden mit KI-Fortschritten. Am Ende werden die Leser verstehen, wie man aus Textdaten sinnvolle Erkenntnisse gewinnt, was die Marketingstrategien revolutioniert. Das Buch verwendet einen umfassenden Datensatz von Amazon-Nutzerbewertungen und stellt eine begleitende Website mit zusätzlichen Ressourcen zur Verfügung, die sicherstellt, dass die Leser mit den neuesten Techniken und Tools auf dem Laufenden bleiben.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter positions the book at the intersection of data science and marketing and makes the case for text analytics as a core capability for modern marketers. It explains how user-generated content—reviews, social posts, chats, and surveys—forms a vast stream of unstructured text that, with the right tools, reveals sentiment, preferences, and emerging trends. Readers get oriented to the R/RStudio workflow and key packages (tidyverse, ggplot2, magrittr), including practical guidance on installing and maintaining packages and why piping simplifies analysis. The chapter introduces the companion dataset (Amazon tablet reviews) and a support website with code, data, and exercises. It also outlines the book’s path: preprocessing and regex basics; obtaining data via files, scraping, and APIs; text representation (Bag-of-Words, tf-idf) and visualization; clustering and classification; topic modeling; sentiment analysis; named entity recognition and summarization; and advanced techniques like word embeddings and transformer models. Throughout, the emphasis is hands-on, marketing-focused, and accessible to beginners while remaining useful to practitioners. -
Chapter 2. Textual Data, String Handling, Regular Expressions, and Data Structures
Daniel Dan, Thomas ReuttererDieses Kapitel vertieft die Verfahren zur Darstellung und Manipulation von Text in R, mit einem Schwerpunkt auf Marketing-Analysen. Zunächst werden die Gründe für die Textreinigung und die Herausforderungen durch nutzergenerierte Inhalte wie Rechtschreibfehler, alternative Schreibweisen, Abkürzungen, Emojis und gemischte Formate angesprochen. Das Kapitel führt in primitive R-Datenstrukturen ein, erklärt, wie Text gespeichert und zugegriffen wird und wie man ihn vektorisiert. Praktische Abschnitte bieten Beispiele für die Erstellung und Indizierung von Zeichenvektoren, die Verkettung von Zeichenketten, das Messen und Zusammenfassen von Zeichenkettenlängen und die Erforschung eines Produktbewertungsdatensatzes mit einfachen explorativen Grafiken. Eine sanfte, aber gründliche Einführung in reguläre Ausdrücke deckt viele grundlegende Elemente ab, die bei der Arbeit mit ihnen zu berücksichtigen sind. Das Kapitel behandelt auch praktische Fragen und Tipps, einschließlich Rechtschreibprüfung und Harmonisierung von Sprachvarianten, sowie die Fallstricke der automatischen Korrektur. Kurze, reproduzierbare Codeschnipsel und Übungen helfen, neue Konzepte in angewandte Fertigkeiten umzuwandeln, um eine robuste Vorverarbeitungs-Pipeline zu schaffen. Zu den Lernzielen gehören das Verständnis grundlegender Konzepte der Darstellung, Manipulation und Arbeit mit Text, das Erlernen des Imports eines Textdatensatzes und der Darstellung seiner Zeichenketten, der Umgang mit häufigen Problemen in benutzergenerierten Inhalten, die Entwicklung von Fertigkeiten, um Informationen über Zeichenketten innerhalb eines Datensatzes zu erhalten und zu analysieren, das Verständnis regulärer Ausdrücke in R und ihrer praktischen Nützlichkeit und das Üben der Verwendung regulärer Ausdruckswerkzeuge wie Quantifizierer, Grenzen, Operatoren, Zeichenklassen und Sequenzen. Das Kapitel schließt mit Übungen zur Anwendung der erlernten Techniken auf einen Datensatz für Produktbewertungen, wobei der Schwerpunkt auf der Rubrik "Titel" liegt. Es führt auch das stringr-Paket für reguläre Ausdrücke ein und bietet Übungen, um Regalexfähigkeiten in RStudio zu üben. Das Kapitel betont die Wichtigkeit, benutzergenerierte Inhalte zu reinigen und die unterschiedlichen Datenstrukturen in R für Textmanipulationen zu verstehen, was eine solide Grundlage für die weitere Erforschung der Textanalyse zu Marketingzwecken bietet.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter includes procedures for representing and manipulating text in R for marketing analytics. It begins with the rationale for text cleaning and provides examples of the difficulties presented by user-generated text—misspellings, alternative spellings, abbreviations, emojis, and mixed formats—and how these affect some practical examples. The chapter then introduces the primitive R data structures, how text is stored and accessed, and how to vectorize it. The practice sections provide examples for creating and indexing character vectors; concatenating character strings; measuring and summarizing string lengths; and exploring a product reviews data set with simple exploratory graphics. The gentle but thorough introduction to regular expressions covers many of the basic elements to consider when working with them. Practical issues and tips, including spell-checking and harmonizing language variants, will also be explored, including the pitfalls of automatic correction. Along the way, the short, reproducible code snippets and exercises will help convert new concepts into applied skills to create a robust preprocessing pipeline. -
Chapter 3. Obtaining Textual Data for Marketing Analytics: Web Scraping, APIs, and Structured Sources
Daniel Dan, Thomas ReuttererDieses Kapitel vertieft die Modalitäten für die Erfassung von Textdaten in R, deckt Ansätze für den Umgang mit elektronischem Text ab und betont die Bedeutung der Erfassung und Aufbereitung. Darin werden Arbeitsabläufe zur Digitalisierung und optischen Zeichenerkennung (OCR) für gedruckte und handschriftliche Quellen diskutiert und rechtliche und ethische Aspekte hervorgehoben. Das Kapitel untersucht typische Wege zur Akquise, einschließlich selbst erzeugter Inhalte, Copy-and-Paste-Inhalte, vorkonfektionierter Downloads, Web-Scrapings und kuratierter Datensätze. Es bietet praktische Beispiele für das Herunterladen und Umformen von PDFs und CSV-Dateien in ordentliche Datenrahmen und vergleicht den API-Zugriff mit dem Web-Scraping über das rvest-Paket. Darüber hinaus werden dynamische Webseiten und RSelenium zur Automatisierung der folgenden Links und Seitenumbrüche verwendet. Das Kapitel schließt mit strukturierten Quellen, neu entstehenden Werkzeugen zum KI-unterstützten Scraping und Repositories sowie einer Reihe von Übungen. Zu den wichtigsten Lernzielen gehören das Verständnis, wo nach zu analysierendem Text zu suchen ist, das Herunterladen von Datensätzen aus dem Internet, das Sammeln unstrukturierter Daten, das Scannen von Daten mit APIs und die Programmierung von Skripten zum Herunterladen von Daten. Das Kapitel behandelt auch den Umgang mit elektronischem Text und die Bedeutung von Text Mining und Analytik im Marketing.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter reviews modalities for gathering text in R. It opens with approaches for dealing with electronic text, and it emphasizes that collection and preparation often take a significant amount of time. It also discusses digitization and optical character recognition (OCR) workflows (and their pitfalls) for printed and handwritten sources, with consideration of the legal and ethical aspects of collecting textual data. The chapter reviews the typical pathways for acquisition, which include self-generated content, copy-and-paste content, prepackaged downloads, web scraping, and curated datasets. It also discusses the use of several packages for reading in a variety of file formats while noting issues around encoding and security. It provides a worked example of downloading and reshaping PDFs and CSVs into tidy data frames. It also compares working with API access to web scraping via thervestpackage, along with comparing the use of browser plug-ins, programmatic scraping schema, discovering text selectors via developer tools, and cleaning up scraped text fields. The chapter also covers dynamic web pages and usingRSeleniumto automate following links and pagination. It ends with structured sources, emerging tools for AI-assisted scraping, and repositories, as well as a set of exercises. -
Chapter 4. Basic Text Analysis, Preprocessing, Bag-of-Words, TF-IDF, and Exploratory Statistics
Daniel Dan, Thomas ReuttererDieses Kapitel vertieft die wesentlichen Prinzipien der quantitativen Textanalyse mittels R und führt den Leser durch den Prozess der Umwandlung von Rohdokumenten in numerische Daten. Es beginnt mit grundlegenden Textanalysen, einschließlich Tokenisierung und einfacher Häufigkeitszählungen, und geht weiter zu fortgeschritteneren Techniken wie Vorverarbeitung, dem Sack-of-Words-Modell und der Frequency-Inverse Document Frequency (TF-IDF). Das Kapitel behandelt auch explorative Statistiken und Visualisierungstools wie Frequenztabellen, Balkendiagramme, Wortwolken und Wortnetzwerke. Praktische Informationen über die Kontrolle der Spärlichkeit und den Umgang mit Hapaxes sind ebenso enthalten wie eine Diskussion über das Vektorraummodell und seine Anwendungen. Das Kapitel schließt mit einem Schwerpunkt auf Marketing-Anwendungen, der zeigt, wie Worthäufigkeiten und Assoziationen SEO-Strategien und Produktvergleiche beeinflussen können. Die Leser erhalten Einblicke in die Vorverarbeitung von Textdaten, die numerische Darstellung von Text und die Anwendung explorativer Analysetechniken, um Muster und Themen in großen Datensätzen aufzudecken.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter turns raw text into numbers you can analyze. It starts with a small web text example (Project Gutenberg) to show tokenization, cleaning, and why common words follow a Zipf-like distribution. You then build a preprocessing pipeline in R (tm, SnowballC, optional textstem): lowercasing, stop-word and custom word removal, punctuation/number stripping, stemming/lemmatization, and whitespace cleanup.Next, the chapter formalizes feature representation via the Vector Space Model: terms, documents, corpora DTM/TDM (with an explicit orientation note). It compares one-hot, count vectors, and TF-IDF (with intuitive Tf/Idf math and an example), and discusses sparsity, hapax legomena, and removeSparseTerms() thresholds for size reduction.You’ll run exploratory analysis: term frequencies, bar plots, word clouds, and term associations with findAssocs() (Pearson correlations over document vectors). Moving beyond unigrams, you build bigrams with RWeka, then visualize word networks using igraph/ggraph, including Louvain community detection to surface topical clusters. A mini case study contrasts Kindle Fire vs. iPad2 reviews using commonality clouds, comparison clouds, mirrored bigram pyramids, and unique-bigram charts—bridging technical features with marketing uses like SEO keyword discovery (and long-tail strategy). -
Chapter 5. Clustering Text for Marketing Segmentation, Similarity Measures, and Grouping
Daniel Dan, Thomas ReuttererDieses Kapitel vertieft sich in die Anhäufung von Textdaten und deckt latente Strukturen in Wörtern und Dokumenten auf. Sie unterscheidet zwischen Entfernungs- und Ähnlichkeitsmessungen, wie euklidischen und kosinalen, und wie die Wahl der metrischen Form die Ergebnisse beeinflusst. Das Kapitel untersucht hierarchische agglomerative Clusterbildung mit verschiedenen Verknüpfungsmethoden, Partitionierungsansätze wie k-Mittel und probabilistische Zuweisungen mittels Gaußscher Mischungsmodelle. Dichtemethoden wie DBSCAN und HDBSCAN werden ebenfalls auf den Nachweis willkürlich geformter Cluster untersucht. Affinitätsverbreitung führt Beispiele und die Abstimmung von Präferenzen ein. Praktische Anleitungen zu Modellauswahl, Parametertuning und Validierungsindizes werden gegeben, wobei die Rolle des Analystenurteils betont wird. Die Algorithmen sind mit Marketing-Segmentierung, Review-Analyse und Themenfindung verknüpft. Das Kapitel schließt mit Übungen, um diese Techniken auf jedes Korpus anzuwenden und Themen, Ähnlichkeiten und Unterschiede zwischen und innerhalb von Clustern herauszuarbeiten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter is your tour of unsupervised grouping for text. It starts with similarity vs. distance (Euclidean vs. cosine), then walks through the big clustering families with hands-on R:—Hierarchical agglomerative clustering (HAC): single/complete/average/Ward linkages, how to read dendrogram height, and why linkage choice changes shape. You’ll build TDMs (often TF-IDF-weighted), compute distances (Canberra, cosine), and pick cuts with helpers like NbClust.—K-means (and friends): how centroids iterate, picking k (elbow, silhouette, CH), randomness (nstart), visualizing clusters, plus variants (k-medians, k-medoids, spherical k-means for cosine/text).—Gaussian Mixture Models (GMM/EM): soft assignments (probabilities), per-cluster covariance—handles elongated/overlapping shapes better than k-means.—Density methods (DBSCAN/HDBSCAN): cluster by dense regions, auto-handles noise/outliers, no preset k; HDBSCAN relieves-tuning and favors stable clusters.—Affinity Propagation: discovers exemplars via message passing; you can let preferences determine the cluster count or set K with apclusterK().You’ll also flip perspective to document clustering (DTM) vs term clustering (TDM), and see how segmentation/persona work emerges from groups of similar reviews. The chapter closes with validation heuristics (silhouette, CH, DB, BIC/AIC, Hartigan), caveats (scale, sparsity, outliers, non-spherical shapes), and practical R recipes to try multiple metrics/linkages and compare results. -
Chapter 6. Text Classification, LDA, KNN, SVM, Neural Networks, and FastText
Daniel Dan, Thomas ReuttererDieses Kapitel vertieft sich in den gesamten Prozess der Textklassifizierung und konzentriert sich auf die Kategorisierung von Dokumenten in bekannte Kategorien mithilfe des Datensatzes für Tablet-Review. Es deckt wesentliche Schritte wie Vektorisierung von Text, Lemmatisierung, Umgang mit der Spärlichkeit und Aufteilung der Daten in Zug- / Validierungs- / Testsätze ab. Das Kapitel bewertet Modelle unter Verwendung von Verwirrungsmatrizen, Präzision, Rückruf und F1 und adressiert Klassenungleichgewichte mit der Nichtinformationsrate (NIR). Zu den Kernklassifikatoren gehören lineare Diskriminanzanalyse (LDA), k-next neighbors (KNN), Unterstützungsvektormaschinen (SVMs) und neuronale Netzwerke, wobei FastText einen besonderen Schwerpunkt für eine schnelle, präzise Satzklassifizierung darstellt. Das Kapitel behandelt auch das Stapeln von Ensembles zur Leistungssteigerung und gibt praktische Ratschläge zur Aktualisierung von Trainingsetiketten, zur Interpretation von Wahrscheinlichkeiten und zur Umsetzung von Ergebnissen in Marketingaktivitäten. Darüber hinaus beinhaltet es Übungen, um die Umsetzung von Modellen und die Vorverarbeitung von Entscheidungen zu stärken. Das Kapitel schließt mit einem Vergleich der Leistung verschiedener Algorithmen, der die Stärken und Schwächen jedes Ansatzes im Kontext der Textklassifizierung hervorhebt.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis chapter moves from “group and guess” to label and predict. You build an end-to-end supervised text-classification pipeline: clean text ? vectorize (DTM/TF-IDF)? train/validate (CV) ? test ? interpret with confusion-matrix metrics. You try classic and modern models—linear discriminant analysis (LDA), k-nearest neighbor (KNN), support vector machine (SVM) (linear/radial basis function (RBF)/poly), neural nets (nnet via caret), plus a fast, practical workhorse: FastText. You also cover hyper-parameter tuning, class imbalance (accuracy vs. precision/recall/F1), and ensembling (stacking) to squeeze extra performance. Throughout, the use case is brand classification from product reviews and how results translate into marketing actions (auto-routing emails, segmenting feedback, monitoring brands). -
Chapter 7. Topic Modeling for Marketing Insights, Latent Dirichlet Allocation, and Structural Topic Models
Daniel Dan, Thomas ReuttererDieses Kapitel vertieft sich in die Welt der Themenmodellierung, einer leistungsstarken Technik zur Gewinnung sinnvoller Erkenntnisse aus großen Mengen an Textdaten. Es beginnt mit der Einführung in das Konzept der Themenmodellierung und ihrer Anwendung im Marketing, gefolgt von einer detaillierten Erklärung der latenten Dirichlet-Allokation (LDA) und ihres generativen Prozesses. Das Kapitel bietet ein schrittweises Beispiel für die Anwendung von LDA in R, einschließlich wörterbuchgesteuerter LDA und LDA auf Satzebene, um die Kontinuität innerhalb von Reviews zu erfassen. Es umfasst auch Werkzeuge zur Visualisierung und Interpretation, wie Tabellen mit Top-Begriffen und interaktive Durchgänge mit LDAvis. Zusätzlich werden im Kapitel strukturelle Themenmodelle vorgestellt, die die Verknüpfung von Themen zur Dokumentation von Metadaten ermöglichen. Es wird diskutiert, wie man aktuelle Prävalenz und aktuelle Inhalte einschätzt und wie man Marken im Laufe der Zeit vergleicht. Das Kapitel schließt mit Empfehlungen zur Bestimmung der optimalen Anzahl von Themen unter Berücksichtigung von Faktoren wie Kohärenz, Exklusivität, Wahrscheinlichkeit, Residuen und Ober- / Untergrenzen. Anhand praktischer Beispiele zeigt das Kapitel, wie Daten helfen können, Marketingentscheidungen zu beeinflussen, und deckt Themen im Zusammenhang mit Produktmerkmalen, Kundenservice, Saisonalität im Urlaub und Markenpositionierung auf.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractYou move from labeling documents to discovering themes without labels. The chapter demystifies latent Dirichlet allocation (LDA) (Dirichlet priors, document-topic \(\theta \) and topic-word \(\phi \), Gibbs sampling), then gets practical: plain LDA in seededlda, seeded LDA (with a dictionary + optional residual topics), and sentence-based LDA (sequential, topic continuity via gamma). You visualize with LDAvis and then level up to STM, which bakes in metadata: prevalence (which docs talk about a topic) and content (how vocabulary within a topic shifts by covariate like Brand). You estimate effects (estimateEffect), plot brand differences, time trends, interactions, and topic correlations. Finally, you cover choosing K with stm::searchK and ldatuning, and tie everything to marketing use cases (feature pain points, seasonality, brand comparisons, content strategy). -
Chapter 8. Sentiment and Emotion Analysis in Marketing, Lexicons, Machine Learning, and Aspect-Based Methods
Daniel Dan, Thomas ReuttererDieses Kapitel untersucht die Unterscheidung zwischen Gefühl und Emotion in Marketing-Insights und untersucht die Analyse auf Dokumenten-, Satz-, Phrasen- und Aspektebene anhand einfacher Beispiele für Bewertungen. Es unterscheidet zwischen Fakten und Meinungen, identifiziert potenzielle Täuschung oder Spam und setzt verschiedene Methoden ein, darunter lexikonenbasierte Scores, maschinelles Lernen, korpusbasierte Hybriden sowie fortgeschrittene Transferlern- / Transformatoren und ABSA. Das Kapitel vergleicht Pakete in R wie sentimentr, syuzhet, SentimentAnalysis, vader und sentiment.ai mit Transformatoren und bietet Vorschläge für die Arbeit mit Emojis / Emoticons. Es zeigt, wie man Bewertungen auswertet, um die Stimmung der Marke im Laufe der Zeit zu überwachen, Bigramme und Wortnetzwerke, die polarisierte Gefühle repräsentieren, abzubauen und die Treiber von Lob und Beschwerde aufzudecken. Die Korrelation zwischen Sternenbewertungen und Sentiment Scores wird untersucht, und die Beurteilung auf Satzebene wird verwendet, um negative Passagen zu lokalisieren. Die grundlegenden Gefühlsklassen (Freude, Traurigkeit, Wut, Angst, Ekel) werden klassifiziert und visualisiert, wobei ein Beispiel gezeigt wird, wie die Dynamik von Themen und Gefühlen mit der Zeit modelliert werden kann, indem man ausgewählte LDA verwendet, um Marken zu vergleichen. Das Kapitel endet mit der Entdeckung der Gotteslästerung in Rezensionen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractYou cover what sentiment is (doc/sentence/phrase/aspect levels), core approaches (lexicon, ML, hybrid, transformers/transfer, ABSA), and do an end-to-end in R. You compare packages (sentiment.ai, sentimentr, vader, syuzhet, SentimentAnalysis), plot timelines by brand, dig into bigrams + word networks for positives/negatives, pinpoint negative sentences, relate scores to star ratings, classify emotions (Joy/Sadness/Anger/Fear/Disgust), and tie topics—sentiment—time together. You finish with a quick look at profanity handling. -
Chapter 9. Named Entity Recognition and Extractive Summarization
Daniel Dan, Thomas ReuttererDieses Kapitel bietet eine detaillierte Einführung in die Named Entity Recognition (NER) und die extraktive Zusammenfassung, wobei der Schwerpunkt auf deren Anwendung in der Marketing-Textanalyse liegt. Es beginnt mit der Erklärung der Grundlagen von NERs, einschließlich regelbasierter, statistischer und neuronaler Modelle, und ihrer Rolle bei der Identifizierung und Klassifizierung benannter Einheiten wie Personen, Organisationen und Orte. Das Kapitel vertieft sich dann in die praktische Umsetzung von NERs mit dem R-Package Spacyr und demonstriert, wie Unternehmen aus Kundenbewertungen extrahiert und analysiert werden können. Schlüsselthemen sind die Extraktion häufig auftretender Entitäten, die Analyse von Adjektiven und der Vergleich der Nutzung von Entitäten im Laufe der Zeit, um Rückschlüsse auf Kampagneneffekte zu ziehen. Das Kapitel untersucht auch die Verwendung von Dependency Parse Trees, um die Beziehungen zwischen Adjektiven und Produktmerkmalen zu visualisieren. Außerdem wird eine vereinfachte Fichtner-Kennzahl eingeführt, um Unterschiede in der sprachlichen Komplexität zwischen den Marken zu berücksichtigen. Das Kapitel schließt mit einem Schwerpunkt auf extraktiven Zusammenfassungsmethoden, wobei die Verwendung von Paketen wie lexRankr, LSAfun und textrank hervorgehoben wird, um kurze Zusammenfassungen aus langen Texten zu erstellen. Am Ende dieses Kapitels werden die Leser in der Lage sein, NERs Pipelines zu bauen, die Erkenntnisse der NERs zu interpretieren, stilistische Trends zu quantifizieren und extraktive Zusammenfassungen zu erstellen, die sich mit der "Wer / Was / Wo / Wann" -Struktur der Verbrauchermeinung befassen. Die praktischen Tipps und Übungen verbessern die Lernerfahrung weiter, was dieses Kapitel zu einer wertvollen Ressource für Fachleute macht, die versuchen, NER- und Zusammenfassungstechniken in ihrer Marketinganalyse zu nutzen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractClear walkthrough: what NER is, typical pipelines, R ecosystem survey (with a sensible focus on spacyr), then practical extraction (entities, adjectives, deps, timelines, complexity) and three extractive summarizers (lexRankr, LSAfun, textrank). You tie it back to marketing use-cases (brand/competitor mentions, negative reviews, timelines), and finish with exercises. Nice arc.This chapter explains how word embeddings turn words into numeric vectors that capture meaning from context, letting us measure similarity and perform operations like clustering and analogies. It starts with simple emotion vectors, then formalizes similarity with cosine similarity. The chapter walks through Word2Vec—both CBOW and skip-gram—including sliding windows, training with backpropagation, and negative sampling for efficient learning. It contrasts Word2Vec with GloVe and FastText, then moves to transformers (BERT/GPT): self-attention, positional encoding, encoder/decoder stacks, and why transformers produce contextual embeddings (the same word can have different vectors depending on usage). -
Chapter 10. Word Embeddings and Transformers for Marketing Text Analytics
Daniel Dan, Thomas ReuttererDieses Kapitel vertieft die Verfahren zur Extraktion von Informationen aus Einbettungen innerhalb der Marketing-Textanalyse, wobei der Schwerpunkt auf Worteinbettungen und Transformatoren liegt. Es beginnt mit einer Einführung in Worteinbettungen, die das Konzept der Einbettung von Raum, Wortvektoren und die Berechnung von Ähnlichkeiten und Analogien anhand kosmischer Ähnlichkeit erklärt. Das Kapitel behandelt dann word2vec und beschreibt die kontinuierlichen Wortsack-of-Word-Modelle (CBOW) und Skip-gram-Modelle sowie Schiebefenster, Negativsampling, Rückpropagation und Hyperparameter für effektives Training. Die Transformatorenarchitektur wird ebenfalls untersucht, einschließlich Positionskodierung, Selbstaufmerksamkeit, Encoder-Decoder-Stacks und deren Anwendungen für Sprach- und sequenzielle Marketingdaten. Praxisbeispiele im Bereich R werden angeboten, darunter die Schulung eines Modells für Produktbewertungen zur Bestimmung von Markenassoziationen, Nachbarschaftsvisualisierungen in UMAP, Clusterbildung und Vektorarithmetik zur Interpretation von Produkten. Das Kapitel präsentiert außerdem eine abstrakte Zusammenfassung und die Beantwortung von Fragen für Tablet-Rezensionen als Beispiel für Transformatoren und hebt hervor, wie unstrukturiertes Feedback Einsichten in großem Maßstab liefern kann. Schließlich wird erklärt, wie die Ergebnisse des Modells zu interpretieren sind, davor gewarnt, große Modelle statistisch nachzuahmen, und mit Übungen abgeschlossen. Der Schlüssel zum Erfolg ist die praktische Anwendung von Texteinbettungen und Transformatoren in der Marketing-Textanalyse, die ein leistungsstarkes Werkzeug zur Gewinnung sinnvoller Erkenntnisse aus unstrukturierten Daten bieten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractOn the practical side, the chapter trains embeddings in R (using word2vec) on product reviews to: find nearest neighbors for brand names (Apple/Samsung), visualize terms with UMAP, cluster them via cosine distance, and do vector arithmetic (e.g., shifting “kindle” toward positive/negative attributes). It then shows transformer applications with the text package: abstractive summarization (T5) of reviews and question-answering (RoBERTa SQuAD2) to pull facts from review corpora. Throughout, it ties methods to marketing uses—brand association mapping, competitive intel, recommendation cues, and concise insight extraction—while noting limits: models pattern-match and can misinterpret meaning without human judgment. -
Backmatter
- Titel
- Text Analytics in Marketing
- Verfasst von
-
Daniel Dan
Thomas Reutterer
- Copyright-Jahr
- 2026
- Verlag
- Springer Nature Switzerland
- Electronic ISBN
- 978-3-032-08086-8
- Print ISBN
- 978-3-032-08085-1
- DOI
- https://doi.org/10.1007/978-3-032-08086-8
Die PDF-Dateien dieses Buches wurden vor der Einführung der aktuellen Best Practices für Barrierefreiheit erstellt. Sie unterstützen durchsuchbaren und auswählbaren Text. Sie können Elemente wie beschriebene nicht-textliche Inhalte (Bilder, Grafiken usw.), umfließenden Text oder Bildschirmlesegerätekompatibilität enthalten, müssen dies aber nicht. Für Benutzer mit Barrierefreiheitsanforderungen kann es zu Einschränkungen kommen. Bitte kontaktieren Sie uns unter accessibilitysupport@springernature.com, wenn Sie Hilfe oder ein alternatives Format benötigen.