Skip to main content

2024 | OriginalPaper | Buchkapitel

2. Generated Pre-trained Transformer-Programme, GPT

verfasst von : Albert Heiser

Erschienen in: Texten mit ChatGPT

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Sprachmodelle wie ChatGPT erzeugen menschenähnliche Texte. Wir beginnen zunächst mit einem Schlüsselelement dieses Fortschritts, der Transformer-Architektur, die eine enorme Steigerung der Fähigkeiten von Chatbots ermöglicht. GPT-Modelle sind eine Black Box, weil sich die Entwickler nicht in ihre Codes und Trainingsdaten blicken lassen. Die Qualität der Texte hängt stark von den Datenquellen ab, auf deren Basis sie trainiert wurden. Wem gehören diese Daten und nach welchen Prinzipien wurden sie programmiert? Der EU AI Act versucht KI-Systeme zu regulieren und stellt Fragen nach ihrer Vertrauenswürdigkeit. Nur wenn diese Fragen beantwortet werden, können wir sicher sein, dass KI-Modelle ethisch vertretbar sind.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Metadaten
Titel
Generated Pre-trained Transformer-Programme, GPT
verfasst von
Albert Heiser
Copyright-Jahr
2024
DOI
https://doi.org/10.1007/978-3-658-45601-6_2