OpenAI möchte ein Sprachmodell, das eine menschenähnliche Absichtskette erstellt

OpenAI hat einen neuen Artikel veröffentlicht, in dem einige der Fortschritte beschrieben werden, die das Unternehmen bei der Beseitigung des allgegenwärtigen „Halluzinationsproblems“ erzielt hat, bei dem KI (künstliche Intelligenz) Dinge erfindet, die nicht real sind.Der Artikel dient dazu, Halluzinationen und deren Entstehung zu erkennen und zu klären. ErgebniskontrolleUnd ProzesssteuerungEs fasst zwei Modelle mit dem Namen zusammen
Award-Modelle,Im Ergebniskontrollmodell von OpenAI wird es darauf trainiert, Feedback zum Endergebnis der künstlichen Intelligenz zu geben. In der ProzesskontrolleAndererseits schafft das Belohnungsmodell eine menschenähnliche Ideenkette, die bei jedem Schritt Feedback liefert.
Laut der Forschungsarbeit von OpenAI wurden beide Modelle anhand einer Reihe mathematischer Informationen und des Prozesssteuerungsverfahrens getestet. sorgt für eine deutlich bessere LeistungEs kann jedoch erwähnenswert sein, dass der Prozesssteuerungspfad bisher nur in der Mathematik getestet wurde und weitere Arbeiten erforderlich sein werden, um zu sehen, wie er im allgemeinen Wissensbereich funktioniert.
OpenAI erläuterte die möglichen Konsequenzen des Prozesssteuerungspfads wie folgt: „ Wenn wir diese Ergebnisse verallgemeinern, können wir sehen, dass die Prozesskontrolle uns ein Modell bietet, das das Beste aus beiden Optionen herausholt – eine Methode, die sowohl leistungsfähiger als auch kohärenter ist als die Ergebniskontrolle.“ genannt.
Es scheint noch zu früh, um zu sagen, inwieweit diese schrittweise Überprüfung dazu beitragen wird, Halluzinationen allgemeiner abzuwehren. Angesichts der Tatsache, dass Halluzinationen derzeit wahrscheinlich das größte Problem bei LLMs sind, hoffen wir, dass es sich um eine effektive Analyse handelt.
OpenAI hat keine Annahmen darüber getroffen, wann die Prozesssteuerung im öffentlich zugänglichen ChatGPT-Dienst eingeführt wird. Die neue Formel befindet sich noch im Forschungsstadium und muss anhand allgemeiner Erkenntnisse getestet werden.
OpenAI erwähnt, dass, obwohl die ersten Ergebnisse ausreichend sind, zuverlässigere Formeln zu einer schlechten Leistung führen können, die als Harmonieschwierigkeit bezeichnet wird. Die Ergebnisse deuten darauf hin, dass es bei der Prozesssteuerung bei der Bearbeitung mathematischer Probleme bisher nicht zu einer solchen Leistungseinbuße gekommen ist. Wir wissen jedoch nicht, wie das Ergebnis in allgemeineren Informationen aussehen wird.