Wertvolle KI-Erklärung von OpenAI zum verbotenen ChatGPT

ChatGPTOpenAI, Schöpfer von Sicherheit durch künstliche Intelligenz und machte öffentliche Erklärungen darüber, wie er versuchte, seine Werke glaubwürdig zu halten. Wie Sie sich erinnern werden, wurden die vertraulichen Informationen einiger Benutzer von ChatGPT aufgrund eines sehr einfachen Fehlers durchgesickert. ChatGPT wurde nach diesem Vorfall in Italien verboten und in einigen europäischen Ländern untersucht.

Letzte Woche Italien, mit ChatGPT in Bezug auf Schließungsschwankungen erstes westliches Land, das verbot war geschehen. Während OpenAI argumentiert, dass es zuversichtlich ist, bestehende Klauseln einzuhalten, hat der Durchbruch Italiens die Möglichkeit für andere Länder erhöht, diesem Beispiel zu folgen und den Einsatz künstlicher Intelligenz einzuschränken, bis ihre Sicherheit gewährleistet ist. Der Blog-Beitrag auf der Website des Unternehmens handelt von KI-Modellen, die in den letzten Monaten wertvolle Fortschritte gemacht haben. Es kann Ängste zerstreuen. ZU Lindert es Ihre Sorgen? Nicht wirklich.

„GPT-4 6 Monate vor Veröffentlichung getestet“

In dem Beitrag erklärt Open AI, dass es jedes neue System mit externen Experten rigoros testet, bevor es der Öffentlichkeit zugänglich gemacht wird, und menschliches Feedback und Verstärkungslernen nutzt, um Verbesserungen vorzunehmen. Das Unternehmen ist das neueste Modell GPT-4vor dem Start sechs Monate testenEr behauptet, dies getan zu haben, und lädt zur Bearbeitung ein: „Wir glauben, dass starke KI-Systeme strengen Sicherheitsbewertungen unterzogen werden sollten. Es besteht Bedarf an Regulierung, um die Einführung solcher Praktiken sicherzustellen, und wir arbeiten aktiv mit den Regierungen an der reibungslosesten Form, die eine solche Regulierung annehmen kann.“

Trotz umfangreicher Recherchen und Tests, die OpenAI nach eigenen Angaben akribisch durchführt, dass das, was man im Labor lernen kann, begrenzt ist , stellt fest, dass sie daher nicht alle nützlichen oder miesen Verwendungsmöglichkeiten übernehmen können. Aus diesem Grund gibt das Unternehmen an, dass öffentliche Tests ein Muss für die Entwicklung solcher Systeme sind. OpenAI sagt, dass es die schlechte Nutzung seiner Dienste überwachen und basierend auf realen Informationen sofort Maßnahmen ergreifen kann.

Der Missbrauch wird fortgesetzt

Wie aus den obigen Erläuterungen ersichtlich ist OpenAI, ChatGPTBei der Entwicklung ausgefeilter Richtlinien gegen reale Risiken, die sich aus Technologien wie z Theoretisch kann es auch für schädliche Zwecke verwendet werden.

Die Altersüberprüfung kommt zu ChatGPT

Das Unternehmen ermöglicht auch Benutzern über 18 oder 13 Jahren mit Zustimmung der Eltern den Zugriff auf seine Dienste. Berücksichtigung von Verifizierungsmöglichkeiten erzählt. Betont wurde auch, dass es im Verbotsbeschluss Italiens keine Überprüfungsmöglichkeit gebe.

Laut Open AI reagiert sein neues Modell GPT-4 mit 82 Prozent geringerer Wahrscheinlichkeit auf Anfragen nach hasserfüllten, missbräuchlichen und gewalttätigen Inhalten. In dem Blogbeitrag wird auch betont, dass die Fähigkeit von GPT-4, faktenbasierte Inhalte zu produzieren, um 40 Prozent höher ist als die von GPT-3.5. OpenAI sagt jedoch auch, dass sie versuchen, so transparent wie möglich zu sein, dass die Ausgaben möglicherweise nicht immer real sind.

Anzumerken ist auch, dass diese Aussage von OpenAI die Sorgen offensichtlich nicht ausräumt. In dem veröffentlichten Blog-Beitrag wird klar darauf hingewiesen, dass die Chat-Daten der Nutzer als Trainingsdaten verwendet werden können. Ja, es wird angegeben, dass diese Daten nicht für Werbe- oder Umsatzzwecke verwendet werden, aber die Fragezeichen wurden nicht gelöst. Was denkst du darüber? Reichen die Maßnahmen von OpenAI aus?

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert