Die Analyse künstlicher Intelligenz liegt in der künstlichen Intelligenz: Das Tool zur Erkennung von ChatGPT wurde entwickelt

OpenAIentwickelt von ChatGPT hat begonnen, jeden Aspekt unseres Lebens zu durchdringen. ChatGPT ist insbesondere in wissenschaftlichen Artikeln und Abschlussarbeiten von Studenten weit verbreitet. Viele Menschen (und Forscher) versuchen, eine praktische Lösung für dieses Medikament für lästige Kleinkinder zu entwickeln, und ein neuer Ansatz ist besonders plausibel. wissenschaftlicher ArtikelScheint zu funktionieren.

ChatGPT wird in wissenschaftlichen Artikeln verwendet

Während ChatGPT extrem gut darin ist, von Menschen erstellte kreative Inhalte zu fälschen, empfinden echte Profis den Chatbot als ziemlich „mies“ und als Autor unnötig. Wenn es jedoch um wissenschaftliche Schriften geht, können diese Arten von Chatbots von einem einfachen Ärgernis zu einer echten Bedrohung für die Wissenschaft und genaue Forschungspraktiken werden.

Universität von Kansas Neu veröffentlichte Forschungsergebnisse von Wissenschaftlern schlagen eine mögliche Lösung für das Problem des KI-basierten Plagiats vor. Das entwickelte Tool extrahiert den von Menschen erstellten wissenschaftlichen Text aus der ChatGPT-Ausgabe. „mit über 99 % Genauigkeit“ Es zeigt einen bemerkenswerten Erfolg, indem es es auszeichnet. Es ist zu beachten, dass dieses Ergebnis dank Algorithmen der künstlichen Intelligenz und eines speziell trainierten Sprachmodells erreicht wird. Also, Künstliche Intelligenz erkennt erneut künstliche Intelligenz.

Fast 100 % nachweisbar

Die Chemieprofessorin Heather Desaire und ihre Kollegen kämpfen KI gegen KI, und sie scheinen sehr positive Ergebnisse zu erzielen: Die Forscher veröffentlichen ihre Arbeit in einer Fachartikelmethode, die in wissenschaftlichen Fachzeitschriften veröffentlicht wird, um einen Überblick über bestimmte Forschungsthemen zu geben. „Perspektive, Meinung und Kommentar“konzentrierten sich auf ihre Artikel.

Die Wissenschaftler wählten 64 Artikel zu Themen von Biologie bis Physik aus und baten ChatGPT dann, neue Absätze über Einzelforschung zu erstellen, um die 128 „gefälschten“ Artikel zusammenzuführen. Die KI produzierte 1.276 Absätze, die später von Forschern zur Klassifizierung von KI-inspirierten Texten verwendet werden. um das Sprachmodell zu trainieren gebraucht. Das trainierte Modell wurde dann auf die Probe gestellt und war erfolgreich. Ich fast 100 Prozent es passierte. Darüber hinaus 92-prozentige Genauigkeit bei der Erkennung einzelner gefälschter Absätzees passierte.

Wissenschaftler, Chatbots ein vernünftiger „Schreibstil“. Er gibt an, dass er Texte mithilfe von künstlicher Intelligenz erstellt. Daher glauben sie, dass Werkzeuge der künstlichen Intelligenz entwickelt und der breiten Öffentlichkeit zugänglich gemacht werden können, um sie zu erkennen. Obwohl das entwickelte Tool ChatGPT derzeit in einem bestimmten Artikelsatz erkennen kann, wird angegeben, dass ähnliche Ergebnisse in anderen Artikeltypen mit mehr Forschung und mehr Fütterung des Modells erzielt werden können.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert