OpenAI hat am 6. November ihre
DevDays abgehalten und dabei GPT-4 Turbo vorgestellt. Das neue Modell ist günstiger als GPT-4, hat jetzt ein 128k Token Context Window und einen JSON Mode. Darüber hinaus hat OpenAI ihre neuen Agents vorgestellt, die sie GPTs nennen. GPTs können über ChatGPT erstellt und dann in ihrem neuen GPT Store gepublished werden.
OpenAI hat ihre Version v3 von Whisper released und nun GPT-3.5 Turbo mit dem 16k Context Window zur fine-tuning API hinzugefügt. Rund um GPT-3.5 Turbo gab es auch ein vermeintliches Leak, was zeigt, dass
GPT-3.5 Turbo ein 20B-Parameter-Modell sein soll.
Das AI-Unternehmen von Elon Musk, x.AI, hat ihr erstes LLM released und es
Grok getauft. Das x.AI-Team hatte 4 Monate für dieses Modell Zeit und bleibt bei den Benchmarks hinter Palm, Cohere und GPT4 zurück. Die Besonderheit ist jedoch, dass das Modell auf Realtime-Daten von X zugreifen kann und explizit darauf trainiert ist, auch sarkastische Antworten zu geben, gerade bei Fragen, die andere LLMs nicht beantworten würden.
Cohere hat ein neues
Embedding v3 Model rausgebracht, das sehr kostengünstig ist und als Alternative für OpenAI Ada genutzt werden kann. Hugging Face hat eine
Distilled Version von Whisper v2 rausgebracht. Und ja: Mit dem oben genannten Announcement kann man über das Timing streiten!
Weitere Links aus der Folge:
- OpenAI Improved RAG pipeline (
Link)
- LLM Apis Pricing Comparison (
Link)