Weltgesundheitsorganisation warnt vor dem Einsatz künstlicher Intelligenz

Die zunehmende Verbreitung produktiver Tools für künstliche Intelligenz, insbesondere ChatGPT, hat begonnen, einige Branchen tiefgreifend zu beeinträchtigen. Darüber hinaus führt das „Halluzinations“-Problem dieser KI-Tools zur Produktion falscher Informationen. In diesem Kontext Weltgesundheitsorganisation(WHO), heute in einer Erklärung künstliche Intelligenzfür öffentliche Gesundheitsdienste verwendet vorsichtig seiner hat angerufen.

Die WHO hat Angst vor künstlicher Intelligenz

WER scheut sich nicht zu sagen, dass er vom Potenzial künstlicher Intelligenz begeistert ist. Die Organisation arbeitet jedoch daran, den Zugang zu Gesundheitsinformationen als Entscheidungsgrundlage zu optimieren und den Diagnoseprozess zu verbessern. Er sagte, er habe Bedenken hinsichtlich des Einsatzes künstlicher Intelligenz.

Die WHO sagte in einer Erklärung, dass die Informationen zum Trainieren künstlicher Intelligenz verwendet würden voreingenommen Es unterstreicht, dass Sie es können. Im Lichte dieser Informationen künstliche Intelligenz irreführende oder falsche Informationen Es wird festgestellt, dass die Modelle schlecht zur Erzeugung von Desinformation genutzt werden können. Andererseits sagte die UN-Gesundheitsbehörde, es sei „obligatorisch“, die Risiken der Verwendung wichtiger Sprachmodelltools (LLM) wie ChatGPT zum Schutz des menschlichen Wohlbefindens und der öffentlichen Gesundheit zu bewerten.

Tatsächlich hat die Gesundheitsabteilung der WHO und der UN mit ihrer Panik völlig Recht. Es ist eine bekannte Tatsache, dass aktuelle produktive KI-Tools anfällig für „Halluzinationen“ sind, also Dinge erfinden. Aus diesem Grund ist es möglich, dass diese Tools neben falschen Informationen auch völlig erfundene Informationen liefern.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert