ChatGPT und die dahinter stehenden Technologien von OpenAI werden immer mächtiger und präsenter im Alltag.
Das birgt viele Vorteile, aber auch große Risiken. Zu letzteren haben sich jetzt 11 aktuelle und ehemalige Mitarbeiter von OpenAI und Google DeepMind in einem öffentlichen Warnbrief geäußert.
Risiken von KI müssen ernst genommen werden
In diesem machen sie auf die „ernsthaften Risiken“ der KI-Technologie aufmerksam, die „bis hin zum Kontrollverlust über autonome KI-Systeme“ und dem anschließenden Aussterben der Menschheit führen könnte.
Sie hoffen, so der Brief weiter, „dass diese Risiken mit ausreichender Anleitung durch die wissenschaftliche Gemeinschaft, politische Entscheidungsträger und die Öffentlichkeit angemessen gemindert werden können.“ Allein an die Güte von kapitalistisch getriebenen KI-Firmen glauben sie dabei nicht.
Deshalb müssten die Firmen vor allem von Mitarbeitern wie ihnen kritisiert und zur Rechenschaft gezogen werden dürfen. Dies sei aufgrund von Repressalien und Verschwiegenheitserklärungen aber oft nicht wirklich möglich, weshalb OpenAI und Co. sehr geheimniskrämerisch agieren könnten.
Neuerliche Kritik an OpenAI
Wie unter anderem Venture Beat zu dem Brief schreibt, stellt er eine weitere Welle an Kritik in Richtung OpenAI dar, die seit Ende 2023 immer wieder über das Unternehmen hereinbricht. Damals wurde der Co-Gründer und CEO Sam Altman aus undurchsichtigen Gründen erst gefeuert und wenige Tage später wieder in sein Amt eingesetzt – iTopnews.de berichtete.
Der Brief im Wortlaut (dt. Übers. d. Red.):
Ein Recht, vor fortgeschrittener künstlicher Intelligenz zu warnen
Wir sind derzeitige und ehemalige Mitarbeiter von KI-Zukunftsunternehmen und glauben an das Potenzial der KI-Technologie, der Menschheit beispiellose Vorteile zu bringen.
Wir verstehen auch die ernsthaften Risiken, die diese Technologien bergen. Diese Risiken reichen von der weiteren Verschärfung bestehender Ungleichheiten über Manipulation und Fehlinformationen bis hin zum Kontrollverlust über autonome KI-Systeme, der möglicherweise zum Aussterben der Menschheit führen könnte. KI-Unternehmen selbst haben diese Risiken anerkannt [1, 2, 3], ebenso wie Regierungen auf der ganzen Welt [4, 5, 6] und andere KI-Experten [7, 8, 9].
Wir hoffen, dass diese Risiken mit ausreichender Anleitung durch die wissenschaftliche Gemeinschaft, politische Entscheidungsträger und die Öffentlichkeit angemessen gemindert werden können. KI-Unternehmen haben jedoch starke finanzielle Anreize, eine wirksame Aufsicht zu vermeiden, und wir glauben nicht, dass maßgeschneiderte Strukturen der Unternehmensführung ausreichen, um dies zu ändern.
KI-Unternehmen verfügen über umfangreiche nicht öffentliche Informationen über die Fähigkeiten und Grenzen ihrer Systeme, die Angemessenheit ihrer Schutzmaßnahmen und die Risikostufen verschiedener Arten von Schäden. Allerdings haben sie derzeit nur schwache Verpflichtungen, einige dieser Informationen mit Regierungen zu teilen, und keine mit der Zivilgesellschaft. Wir glauben nicht, dass man sich darauf verlassen kann, dass sie diese Informationen freiwillig weitergeben.
Solange es keine wirksame staatliche Aufsicht über diese Unternehmen gibt, gehören derzeitige und ehemalige Mitarbeiter zu den wenigen Menschen, die sie gegenüber der Öffentlichkeit zur Rechenschaft ziehen können. Dennoch hindern uns umfassende Vertraulichkeitsvereinbarungen daran, unsere Bedenken zu äußern, außer gegenüber genau den Unternehmen, die diese Probleme möglicherweise nicht angehen. Der gewöhnliche Schutz von Hinweisgebern ist unzureichend, da er sich auf illegale Aktivitäten konzentriert, während viele der Risiken, über die wir uns Sorgen machen, noch nicht reguliert sind. Einige von uns befürchten angesichts der Geschichte solcher Fälle in der gesamten Branche berechtigterweise verschiedene Formen der Vergeltung. Wir sind nicht die Ersten, die auf diese Probleme stoßen oder darüber sprechen.
Wir fordern daher fortschrittliche KI-Unternehmen auf, sich zu diesen Grundsätzen zu bekennen:
Das Unternehmen wird keine Vereinbarung eingehen oder durchsetzen, die „Verunglimpfung“ oder Kritik des Unternehmens aufgrund risikobezogener Bedenken verbietet, noch wird es für risikobezogene Kritik Vergeltung üben, indem es einen begründeten wirtschaftlichen Vorteil behindert;
Das Unternehmen wird einen nachweislich anonymen Prozess ermöglichen, mit dem aktuelle und ehemalige Mitarbeiter risikobezogene Bedenken gegenüber dem Vorstand des Unternehmens, den Aufsichtsbehörden und einer geeigneten unabhängigen Organisation mit einschlägiger Expertise äußern können.
Das Unternehmen wird eine Kultur der offenen Kritik unterstützen und seinen aktuellen und ehemaligen Mitarbeitern ermöglichen, risikobezogene Bedenken hinsichtlich seiner Technologien gegenüber der Öffentlichkeit, dem Vorstand des Unternehmens, den Aufsichtsbehörden oder einer geeigneten unabhängigen Organisation mit einschlägiger Expertise zu äußern, solange Geschäftsgeheimnisse und andere Interessen des geistigen Eigentums angemessen geschützt werden.Das Unternehmen wird keine Vergeltungsmaßnahmen gegen aktuelle und ehemalige Mitarbeiter ergreifen, die risikobezogene vertrauliche Informationen öffentlich teilen, nachdem andere Prozesse gescheitert sind. Wir akzeptieren, dass bei allen Bemühungen, risikobezogene Bedenken zu melden, die unnötige Veröffentlichung vertraulicher Informationen vermieden werden sollte. Sobald also ein angemessener Prozess besteht, um Bedenken anonym gegenüber dem Vorstand des Unternehmens, den Aufsichtsbehörden und einer geeigneten unabhängigen Organisation mit einschlägiger Expertise zu äußern, akzeptieren wir, dass Bedenken zunächst über einen solchen Prozess geäußert werden sollten. Solange jedoch ein solcher Prozess nicht besteht, sollten aktuelle und ehemalige Mitarbeiter die Freiheit behalten, ihre Bedenken der Öffentlichkeit mitzuteilen.
Unterzeichnet von (alphabetische Reihenfolge):Jacob Hilton, ehemals OpenAI
Daniel Kokotajlo, ehemals OpenAI
Ramana Kumar, ehemals Google DeepMind
Neel Nanda, derzeit Google DeepMind, ehemals Anthropic
William Saunders, ehemals OpenAI
Carroll Wainwright, ehemals OpenAI
Daniel Ziegler, ehemals OpenAI
Anonym, derzeit OpenAI
Anonym, derzeit OpenAI
Anonym, derzeit OpenAI
Anonym, derzeit OpenAI
Anonym, ehemals OpenAI
Anonym, ehemals OpenAIUnterstützt von (alphabetische Reihenfolge):
Yoshua Bengio
Geoffrey Hinton
Stuart Russell4. Juni 2024
In diesem Artikel sind Partner-Links enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet Ihr Euch für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für Euch ändert sich am Preis nichts. Danke für Eure Unterstützung.