Was ist neu an GPT-4o mini?
Wie OpenAI auf seinem Blog erklärt, handelt es sich bei GPT-4o mini um ein kleines, kosteneffizientes Sprachmodell. Es soll das KI-Modell GPT-3.5 Turbo ersetzen.
In bisherigen Tests von OpenAI erzielte GPT-4o mini im Vergleich zu anderen KI-Modellen wie Gemini 1.5 Flash, Claude Haiku oder dem Vorgängermodell GPT-3.5 Turbo deutlich bessere Ergebnisse.
Doch nicht nur die Ergebnisse sind besser als beim Vorgängermodell, auch die Kosten sind deutlich geringer als bei GPT-3.5 Turbo. Die Kosten für Entwickler liegen bei 0,15 USD pro Million Input-Token und 0,60 USD pro Million Output-Token. Somit ist es 60 % günstiger als GPT-3.5 Turbo.
Sicherheitsvorkehrungen der KI
Bereits vor dem Training der KI werden Informationen herausgefiltert, die die KI nicht lernen, bzw. ausgeben sollen. So wie beispielsweise Hassreden, nicht jugendfreie Inhalte, Websites, die vorrangig personenbezogene Daten sammeln und Spam.
Zudem hat OpenAI für GPT-4.o mini auch eine neue Sicherheitsvorkehrung eingeführt: die „Instruction Hierarchy“. Dabei sollen die ursprünglichen Befehle der Entwickler der KI im Vergleich zu den Eingaben des momentanen Benutzers bevorzugt werden. Das bedeutet, z.B. die Sicherheitseinstellungen und Beschränkungen zur Ausspielung von Inhalten sollen nicht durch Nutzer oder Hacker aufgehoben werden können. Dies soll zu noch sichereren und vertrauenswürdigeren Antworten der KI führen.
Wer kann das neue Modell nutzen?
GPT-4o mini ist als Text- und Bildmodell in der Assistenten-API, der Chat-Vervollständigungs-API und der Batch-API verfügbar. In Zukunft sollen auch Video- und Audiodateien verarbeitet werden können.
In ChatGPT können Free-, Plus- und Team-Benutzer bereits GPT-4o mini nutzen. Enterprise-Benutzer werden in den kommenden Tagen ebenfalls Zugriff auf das kompakte Sprachmodell erhalten.