Sicherheit
Sicherheit
KI-Audio entwickelt, um Möglichkeiten und positiven Einfluss zu erschließen, geleitet von Verantwortung und Schutzmaßnahmen, die Menschen vor Missbrauch schützen.
Unsere Sicherheitsmission
Bei ElevenLabs glauben wir fest an die enormen Vorteile von KI-Audio. Unsere Technologie wird von Millionen von Einzelpersonen und Tausenden von Unternehmen genutzt, um Inhalte und Informationen für Zielgruppen zugänglich zu machen, für die sie zuvor unerreichbar waren, um ansprechende Bildungstools zu erstellen, um immersive Unterhaltungserlebnisse zu ermöglichen, um Stimmen für Menschen zurückzubringen, die aufgrund eines Unfalls oder einer Krankheit die Fähigkeit zu sprechen verloren haben, und vieles mehr.
Wie bei allen transformativen Technologien erkennen wir auch, dass Missbrauch von Technologie Schaden verursachen kann. Deshalb sind wir verpflichtet, den Missbrauch unserer Modelle und Produkte zu verhindern – insbesondere Bemühungen, andere zu täuschen oder auszunutzen. Unsere Sicherheitsprinzipien leiten unsere tägliche Arbeit und spiegeln sich in konkreten, mehrschichtigen Schutzmaßnahmen wider, die darauf ausgelegt sind, Missbrauch zu verhindern und zu bekämpfen.committed to protecting against the misuse of our models and products – especially efforts to deceive or to exploit others. Our safety principles guide our everyday work and are reflected in concrete, multi-layered safeguards designed to prevent and address abuse.
„KI-Sicherheit ist bei ElevenLabs untrennbar mit Innovation verbunden. Die sichere Entwicklung, Bereitstellung und Nutzung unserer Systeme bleibt im Mittelpunkt unserer Strategie.“

Mati Staniszewski
Co-founder at ElevenLabs
„Das Volumen an KI-generierten Inhalten wird weiter wachsen. Wir wollen die notwendige Transparenz bieten, um die Herkunft digitaler Inhalte zu überprüfen.“

Piotr Dąbkowski
Co-founder at ElevenLabs
Unsere Sicherheitsprinzipien
Unser Sicherheitsprogramm wird von den folgenden Prinzipien geleitet:
Unsere Schutzmaßnahmen
Wir bemühen uns, die Hürden für schlechte Akteure, die versuchen, unsere Tools zu missbrauchen, zu maximieren, während wir ein nahtloses Erlebnis für legitime Nutzer aufrechterhalten. Wir erkennen an, dass kein Sicherheitssystem perfekt ist: Gelegentlich können Schutzmaßnahmen versehentlich gute Akteure blockieren oder böswillige nicht erfassen.
Wir setzen eine umfassende Reihe von Schutzmaßnahmen in einem mehrschichtigen Verteidigungssystem ein. Wenn eine Schicht umgangen wird, sind die zusätzlichen Schichten dahinter vorhanden, um den Missbrauch zu erfassen. Unsere Sicherheitsmechanismen entwickeln sich kontinuierlich weiter, um mit den Fortschritten in unseren Modellen, Produkten und gegnerischen Taktiken Schritt zu halten.
Informieren
Wir integrieren Drittstandards wie C2PA und unterstützen externe Bemühungen zur Verbesserung von Deepfake-Erkennungstools. Wir haben einen branchenführenden KI-Audio-Klassifikator öffentlich veröffentlicht, um anderen zu helfen, festzustellen, ob ein Inhalt mit ElevenLabs erstellt wurde.
Durchsetzen
Kunden, die gegen unsere Richtlinie für verbotene Nutzung verstoßen, unterliegen Durchsetzungsmaßnahmen, einschließlich Sperren für hartnäckige oder schwerwiegende Verstöße. Wir leiten kriminelle und andere illegale Aktivitäten an die Strafverfolgungsbehörden weiter.
Erkennen
Wir überwachen aktiv unsere Plattform auf Verstöße gegen unsere Richtlinie für verbotene Nutzung, indem wir KI-Klassifikatoren, menschliche Prüfer und interne Untersuchungen einsetzen. Wir arbeiten mit externen Organisationen zusammen, um Einblicke in potenziellen Missbrauch zu erhalten, und haben einen Mechanismus eingerichtet, über den die Öffentlichkeit Missbrauch melden kann.
Verhindern
Wir testen unsere Modelle vor der Veröffentlichung und prüfen unsere Kunden bei der Anmeldung. Wir integrieren auch Produktfunktionen, um schlechte oder unverantwortliche Akteure abzuschrecken, einschließlich der Sperrung des Klonens von Prominenten und anderen hochriskanten Stimmen und der Anforderung einer technologischen Verifizierung für den Zugang zu unserem Professional Voice Cloning Tool.
Sicherheitspartnerschaftsprogramm
Wir unterstützen führende Organisationen bei der Entwicklung technischer Lösungen zur Echtzeiterkennung von Deepfakes.
Inhalte melden
Wenn Sie Inhalte finden, die Bedenken hervorrufen, und glauben, dass sie mit unseren Tools erstellt wurden, melden Sie sie bitte hier.
Richtlinie für verbotene Inhalte & Nutzungen
Erfahren Sie mehr über die Arten von Inhalten und Aktivitäten, die bei der Nutzung unserer Tools nicht erlaubt sind.
ElevenLabs KI-Sprachklassifikator
Unser KI-Sprachklassifikator ermöglicht es Ihnen zu erkennen, ob ein Audioclip mit ElevenLabs erstellt wurde.
Koalition für Inhaltsherkunft und Authentizität
Ein offener technischer Standard, der die Möglichkeit bietet, die Herkunft von Medien zu verfolgen.
Initiative für Inhaltsauthentizität
Förderung der Einführung eines offenen Industriestandards für Inhaltsauthentizität und -herkunft.