Large Language Models (LLMs) werden immer leistungsfähiger. Sowohl bei Open AI's Sprachmodell GPT als auch bei Google's LLM Gemini hat sich das jeweilige Context Window deutlich vergrößert. Das Context Window ist ein Kriterium für die Verarbeitungsleistung, welches angibt, wie viele Informationen ein Modell in einer einzigen Interaktion verarbeiten kann. Während die neueste Version von GPT ein achtmal so großes Context Window wie die Version GPT-3.5 Turbo hat, kam es bei Gemini zu einer 63-fachen Erweiterung des Context Windows.
Größe des Context Windows für ausgewählte Large Language Models im Jahr 2024
(in 1000 Tokens)
Merkmal
Context-Window in 1.000 Tokens
-
-
-
-
-
-
-
-
-
-
-
-
Für einen uneingeschränkten Zugang benötigen Sie einen Statista‑Account
Allgemein bezeichnet das Context Window den Wort- oder Tokenumfang, den das Modell in einer einzigen Interaktion bearbeiten kann. Ein größeres Context Window bedeutet also, dass das Modell frühere Zusammenhänge länger und umfassender beibehält, wohingegen bei einem kleineren Context Window frühere Teile eines Prompts vergessen werden.
Profitieren Sie von zusätzlichen Features mit einem Nutzer-Account
Bitte erstellen Sie einen Nutzer-Account um Statistiken als Favorit markieren zu können.
Anschließend können Sie über den Stern in der Kopfzeile ihre favorisierten Statistiken aufrufen.
Profitieren Sie von den zusätzlichen Funktionen Ihres individuellen Accounts
Derzeit nutzen Sie einen geteilten Account. Um individuelle Funktionen nutzen zu können (z. B. Statistiken als Favoriten zu
markieren oder Statistik-Benachrichtigungen festzulegen), loggen Sie sich bitte über Ihren persönlichen Account ein.
Wenn Sie ein Administrator sind, authentifizieren Sie sich bitte, indem Sie sich erneut einloggen.
1
Alle Preise verstehen sich zzgl. der gesetzlichen MwSt. Der Account hat eine Mindestlaufzeit von 12 Monaten und verlängert sich nach dem ersten Vertragsjahr zum regulären Listenpreis.
1
Alle Preise verstehen sich zzgl. der gesetzlichen MwSt. Der Account hat eine Mindestlaufzeit von 12 Monaten und verlängert sich nach dem ersten Vertragsjahr zum regulären Listenpreis.
Erfahren Sie mehr über unseren Professional Account
Alle Inhalte, alle Funktionen. Veröffentlichungsrecht inklusive.
Roland Berger. (10. September, 2024). Größe des Context Windows für ausgewählte Large Language Models im Jahr 2024 (in 1000 Tokens) [Graph]. In Statista. Zugriff am 24. Dezember 2024, von https://de.statista.com/statistik/daten/studie/1497608/umfrage/groesse-des-context-windows-fuer-ausgewaehlte-llm/
Roland Berger. "Größe des Context Windows für ausgewählte Large Language Models im Jahr 2024 (in 1000 Tokens)." Chart. 10. September, 2024. Statista. Zugegriffen am 24. Dezember 2024. https://de.statista.com/statistik/daten/studie/1497608/umfrage/groesse-des-context-windows-fuer-ausgewaehlte-llm/
Roland Berger. (2024). Größe des Context Windows für ausgewählte Large Language Models im Jahr 2024 (in 1000 Tokens). Statista. Statista GmbH. Zugriff: 24. Dezember 2024. https://de.statista.com/statistik/daten/studie/1497608/umfrage/groesse-des-context-windows-fuer-ausgewaehlte-llm/
Roland Berger. "Größe Des Context Windows Für Ausgewählte Large Language Models Im Jahr 2024 (In 1000 Tokens)." Statista, Statista GmbH, 10. Sept. 2024, https://de.statista.com/statistik/daten/studie/1497608/umfrage/groesse-des-context-windows-fuer-ausgewaehlte-llm/
Roland Berger, Größe des Context Windows für ausgewählte Large Language Models im Jahr 2024 (in 1000 Tokens) Statista, https://de.statista.com/statistik/daten/studie/1497608/umfrage/groesse-des-context-windows-fuer-ausgewaehlte-llm/ (letzter Besuch 24. Dezember 2024)
Größe des Context Windows für ausgewählte Large Language Models im Jahr 2024 (in 1000 Tokens) [Graph], Roland Berger, 10. September, 2024. [Online]. Verfügbar: https://de.statista.com/statistik/daten/studie/1497608/umfrage/groesse-des-context-windows-fuer-ausgewaehlte-llm/