OpenAI räumt Probleme bei der Nutzung seines KI-Modells OpenAI, das auch als App bereitsteht, ein.
Das Unternehmen hinter dem weltweit bekanntesten Ki-Modell hat einen Report veröffentlicht, in dem beschrieben wird, welche Maßnahmen ergriffen werden, um unerwünschtes Verhalten im KI-Modell zu vermeiden.
Tests zeigen Schwachstellen der KI
Einer der Punkte ist das unerlaubte Generieren von Sprache. Während Tests kam es manchmal vor, dass die KI die Stimme des Bedieners nachahmen zu versuchte.
Verhalten so gut wie möglich unterbunden
Dies wird von Open AI als „unerwünschtes Verhalten“ eingestuft und wurde so gut wie möglich abgestellt. Von OpenAI heißt es dazu:
Während der Tests haben wir auch seltene Fälle beobachtet, in denen das Modell unbeabsichtigt eine Ausgabe erzeugte, die die Stimme des Benutzers nachahmte.
Wir stellen fest, dass das Restrisiko einer unbefugten Stimmerzeugung minimal ist.
Unbeabsichtigte Stimmerzeugung ist zwar immer noch eine Schwachstelle des Modells, aber wir verwenden die sekundären Klassifikatoren, um sicherzustellen, dass das Gespräch abgebrochen wird, wenn dies geschieht, so dass das Risiko der unbeabsichtigten Stimmerzeugung minimal ist.
In diesem Artikel sind Partner-Links enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet Ihr Euch für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für Euch ändert sich am Preis nichts. Danke für Eure Unterstützung. Bild: Dall-E3/iTopnews, via OpenAI