ChatGPT-API öffentlich freigegeben

Chatbot wurde im November 2022 für alle eingeführt ChatGPT Mit dem, was es bisher konnte, hat es begonnen, in vielen Branchen, sogar in professionellen Arbeiten, eingesetzt zu werden. Eins zu eins haben auch unabhängige und professionelle Entwickler den Chatbot in ihre Dienste integriert und tun dies weiterhin.

Aber bisher konnten die Entwickler nicht auf die höchste Leistungsfähigkeit von ChatGPT zugreifen. OpenAI ist nur das Sprachmodell der vorherigen Generation “ text-davinci-003 “ Modell. Dies änderte sich jedoch mit dem Prestige des März.

Jeder kann auf die heutige ChatGPT-API zugreifen

In der geteilten Ankündigung gab OpenAI bekannt, dass sie die API des GPT 3.5-Sprachmodells, das die aktuelle Version von ChatGPT ist, verfügbar gemacht haben. Entwickler sind jetzt gpt-3.5-turboDurch die Verwendung des ”-Modells können sie auf ein fortgeschritteneres Sprachmodell und damit auf fortgeschrittenere Fähigkeiten zugreifen.

Nicht nur ChatGPT kann verwendet werden, sondern auch Whisper, das Audio in Text umwandelt.

Neben ChatGPT hat OpenAI auch die API für Whisper veröffentlicht, die englische Audiodaten mit hoher Genauigkeit in Text übersetzen kann. Entwickler, “ Flüstern-1Mit dem ”-Modell hatten sie die Möglichkeit, Whisper in die von ihnen entwickelten Systeme zu integrieren.

Also, was wird das für uns tun? Hier ist die Antwort auf diese Frage bisher:

Obwohl die Verwendung des Modells GPT 3.5 und Whisper gerade erst öffentlich gemacht wurde, war es erst vor kurzem für große Namen verfügbar. Zum Beispiel wird Snapchat mit der GPT-3.5-API erstellt. Chatbot „Meine KI“angefangen zu hosten.

Whisper hingegen wurde von Speak in Südkorea auf Basis künstlicher Intelligenz eingesetzt Eine App, die das Englischlernen einfach machterschienen war.

Der kombinierte Einsatz von Whisper und GPT 3.5 hat großes Potenzial. Benutzer können nun Antworten auf ihre Anfragen vom GPT 3.5-Modell erhalten, indem sie einfach in einer Audioform sprechen. Bald viele Entwickler Beispiele für die Verwendung dieses DuosWir werden sehen.

Die Nutzung von APIs ist natürlich kostenpflichtig:

Diejenigen, die die API von OpenAI nutzen möchten, zahlen einen Preis für jedes Versprechen, das sie an die KI senden. Dieser Preis ist jedoch tatsächlich viel niedriger als in den frühen Tagen von ChatGPT.

Jeder Prozess, der mit dem gpt-3.5-turbo-Modell durchgeführt werden soll, wird über das Token-System von OpenAI berechnet. Prozesskosten von 1000 Token 0,002 Dollar wird sein. Wenn es ein Token ist bis 4 Zeichen eines englischen Worteses entspricht.

Wenn zum Beispiel ChatGPT diesen Nachrichtentext schreiben würde, wäre die Summe 1203 Token ausgegeben würden (2.379 Zeichen). Das geht gleich für nur 4 Cent(Außer diesem Absatz und dem Rest).

Um die Kosten zu berechnen, können Sie über diesen Kontakt auf das OpenAI-eigene Tool zugreifen.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert