Skip to main content

2024 | OriginalPaper | Buchkapitel

Analysis of Deep Learning Models for Text Summarization of User Manuals

verfasst von : Mihir Kayastha, Megh Khaire, Malhar Gate, Param Joshi, Sheetal Sonawane

Erschienen in: Big Data, Machine Learning, and Applications

Verlag: Springer Nature Singapore

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Abstract

User manuals have an inconsistent structure with the data presented in multiple formats such as tables, images, etc. It makes processing them a challenging task as we need to account for these inconsistencies. In this work, we propose a pipeline for processing user manuals and analyzing abstractive model PEGASUS and extractive models XLNet, BERT, and GPT-2 for summarization of user manuals. To evaluate the models, we have generated extractive and abstractive datasets and used metrics such as hit ratio, overlap, and rouge score to compare the performance of the models. We observed that an abstractive model gives more human-like summaries compared to the extractive models which although have higher rouge scores, suffer in readability. The system utilizes automatic text summarization along with multiple methods to process user manuals and extract required information in a summarized manner.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Literatur
2.
Zurück zum Zitat Britz D, Goldie A, Luong MT, Le Q (2017) Massive exploration of neural machine translation architectures. arXiv:1703.03906 (2017) Britz D, Goldie A, Luong MT, Le Q (2017) Massive exploration of neural machine translation architectures. arXiv:​1703.​03906 (2017)
3.
Zurück zum Zitat Chaput M (2007) Whoosh: python-based search engine Chaput M (2007) Whoosh: python-based search engine
4.
Zurück zum Zitat Devlin J, Chang MW, Lee K, Toutanova K (2018) Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv:1810.04805 Devlin J, Chang MW, Lee K, Toutanova K (2018) Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv:​1810.​04805
5.
Zurück zum Zitat Erera S, Shmueli-Scheuer M, Feigenblat G, Nakash OP, Boni O, Roitman H, Cohen D, Weiner B, Mass Y, Rivlin O et al (2019) A summarization system for scientific documents. arXiv:1908.11152 Erera S, Shmueli-Scheuer M, Feigenblat G, Nakash OP, Boni O, Roitman H, Cohen D, Weiner B, Mass Y, Rivlin O et al (2019) A summarization system for scientific documents. arXiv:​1908.​11152
6.
10.
Zurück zum Zitat Radford A, Wu J, Child R, Luan D, Amodei D, Sutskever I et al (2019) Language models are unsupervised multitask learners. OpenAI Blog 1(8):9 Radford A, Wu J, Child R, Luan D, Amodei D, Sutskever I et al (2019) Language models are unsupervised multitask learners. OpenAI Blog 1(8):9
11.
Zurück zum Zitat Sonawane S, Kulkarni P, Deshpande C, Athawale B (2019) Extractive summarization using semigraph (ESSG). Evol Syst 10(3):409–424CrossRef Sonawane S, Kulkarni P, Deshpande C, Athawale B (2019) Extractive summarization using semigraph (ESSG). Evol Syst 10(3):409–424CrossRef
12.
Zurück zum Zitat Yang Z, Dai Z, Yang Y, Carbonell J, Salakhutdinov RR, Le QV (2019) Xlnet: generalized autoregressive pretraining for language understanding. Adv Neural Inf Process Syst 32 Yang Z, Dai Z, Yang Y, Carbonell J, Salakhutdinov RR, Le QV (2019) Xlnet: generalized autoregressive pretraining for language understanding. Adv Neural Inf Process Syst 32
13.
Zurück zum Zitat Zhang J, Zhao Y, Saleh M, Liu P (2020) Pegasus: pre-training with extracted gap-sentences for abstractive summarization. In: International conference on machine learning. PMLR, pp 11328–11339 Zhang J, Zhao Y, Saleh M, Liu P (2020) Pegasus: pre-training with extracted gap-sentences for abstractive summarization. In: International conference on machine learning. PMLR, pp 11328–11339
Metadaten
Titel
Analysis of Deep Learning Models for Text Summarization of User Manuals
verfasst von
Mihir Kayastha
Megh Khaire
Malhar Gate
Param Joshi
Sheetal Sonawane
Copyright-Jahr
2024
Verlag
Springer Nature Singapore
DOI
https://doi.org/10.1007/978-981-99-3481-2_35

Premium Partner