Sicherheit

KI-Audio entwickelt, um Möglichkeiten und positiven Einfluss zu erschließen, geleitet von Verantwortung und Schutzmaßnahmen, die Menschen vor Missbrauch schützen.

Unsere Sicherheitsmission

Bei ElevenLabs glauben wir fest an die enormen Vorteile von KI-Audio. Unsere Technologie wird von Millionen von Einzelpersonen und Tausenden von Unternehmen genutzt, um Inhalte und Informationen für Zielgruppen zugänglich zu machen, für die sie zuvor unerreichbar waren, um ansprechende Bildungstools zu erstellen, um immersive Unterhaltungserlebnisse zu ermöglichen, um Stimmen für Menschen zurückzubringen, die aufgrund eines Unfalls oder einer Krankheit die Fähigkeit zu sprechen verloren haben, und vieles mehr.

Wie bei allen transformativen Technologien erkennen wir auch, dass Missbrauch von Technologie Schaden verursachen kann. Deshalb sind wir verpflichtet, den Missbrauch unserer Modelle und Produkte zu verhindern – insbesondere Bemühungen, andere zu täuschen oder auszunutzen. Unsere Sicherheitsprinzipien leiten unsere tägliche Arbeit und spiegeln sich in konkreten, mehrschichtigen Schutzmaßnahmen wider, die darauf ausgelegt sind, Missbrauch zu verhindern und zu bekämpfen.committed to protecting against the misuse of our models and products – especially efforts to deceive or to exploit others.  Our safety principles guide our everyday work and are reflected in concrete, multi-layered safeguards designed to prevent and address abuse.

„KI-Sicherheit ist bei ElevenLabs untrennbar mit Innovation verbunden. Die sichere Entwicklung, Bereitstellung und Nutzung unserer Systeme bleibt im Mittelpunkt unserer Strategie.“

Mati Staniszewski

Mati Staniszewski

Co-founder at ElevenLabs

„Das Volumen an KI-generierten Inhalten wird weiter wachsen. Wir wollen die notwendige Transparenz bieten, um die Herkunft digitaler Inhalte zu überprüfen.“

Piotr Dąbkowski

Piotr Dąbkowski

Co-founder at ElevenLabs

Unsere Sicherheitsprinzipien

Unser Sicherheitsprogramm wird von den folgenden Prinzipien geleitet:

Safety illustration

Unsere Schutzmaßnahmen

Wir bemühen uns, die Hürden für schlechte Akteure, die versuchen, unsere Tools zu missbrauchen, zu maximieren, während wir ein nahtloses Erlebnis für legitime Nutzer aufrechterhalten. Wir erkennen an, dass kein Sicherheitssystem perfekt ist: Gelegentlich können Schutzmaßnahmen versehentlich gute Akteure blockieren oder böswillige nicht erfassen.

Wir setzen eine umfassende Reihe von Schutzmaßnahmen in einem mehrschichtigen Verteidigungssystem ein. Wenn eine Schicht umgangen wird, sind die zusätzlichen Schichten dahinter vorhanden, um den Missbrauch zu erfassen. Unsere Sicherheitsmechanismen entwickeln sich kontinuierlich weiter, um mit den Fortschritten in unseren Modellen, Produkten und gegnerischen Taktiken Schritt zu halten.

Informieren

Wir integrieren Drittstandards wie C2PA und unterstützen externe Bemühungen zur Verbesserung von Deepfake-Erkennungstools. Wir haben einen branchenführenden KI-Audio-Klassifikator öffentlich veröffentlicht, um anderen zu helfen, festzustellen, ob ein Inhalt mit ElevenLabs erstellt wurde.

Durchsetzen

Kunden, die gegen unsere Richtlinie für verbotene Nutzung verstoßen, unterliegen Durchsetzungsmaßnahmen, einschließlich Sperren für hartnäckige oder schwerwiegende Verstöße. Wir leiten kriminelle und andere illegale Aktivitäten an die Strafverfolgungsbehörden weiter.

Erkennen

Wir überwachen aktiv unsere Plattform auf Verstöße gegen unsere Richtlinie für verbotene Nutzung, indem wir KI-Klassifikatoren, menschliche Prüfer und interne Untersuchungen einsetzen. Wir arbeiten mit externen Organisationen zusammen, um Einblicke in potenziellen Missbrauch zu erhalten, und haben einen Mechanismus eingerichtet, über den die Öffentlichkeit Missbrauch melden kann.

Verhindern

Wir testen unsere Modelle vor der Veröffentlichung und prüfen unsere Kunden bei der Anmeldung. Wir integrieren auch Produktfunktionen, um schlechte oder unverantwortliche Akteure abzuschrecken, einschließlich der Sperrung des Klonens von Prominenten und anderen hochriskanten Stimmen und der Anforderung einer technologischen Verifizierung für den Zugang zu unserem Professional Voice Cloning Tool.

Sicherheitspartnerschaftsprogramm

Wir unterstützen führende Organisationen bei der Entwicklung technischer Lösungen zur Echtzeiterkennung von Deepfakes.

Inhalte melden

Wenn Sie Inhalte finden, die Bedenken hervorrufen, und glauben, dass sie mit unseren Tools erstellt wurden, melden Sie sie bitte hier.

Richtlinie für verbotene Inhalte & Nutzungen

Erfahren Sie mehr über die Arten von Inhalten und Aktivitäten, die bei der Nutzung unserer Tools nicht erlaubt sind.

ElevenLabs KI-Sprachklassifikator

Unser KI-Sprachklassifikator ermöglicht es Ihnen zu erkennen, ob ein Audioclip mit ElevenLabs erstellt wurde.

Koalition für Inhaltsherkunft und Authentizität

Ein offener technischer Standard, der die Möglichkeit bietet, die Herkunft von Medien zu verfolgen.

Initiative für Inhaltsauthentizität

Förderung der Einführung eines offenen Industriestandards für Inhaltsauthentizität und -herkunft.

Häufig gestellte Fragen

Wenn Sie auf Inhalte stoßen, die gegen unsere Richtlinie für verbotene Inhalte und Nutzungen verstoßen, und glauben, dass sie auf unserer Plattform erstellt wurden, melden Sie sie bitte hier. EU-Nutzer können uns hier über Inhalte informieren, die ihrer Meinung nach illegale Inhalte darstellen könnten (gemäß DSA Artikel 16 des EU-Digital Services Act). Wir haben auch einen einzigen Ansprechpartner für EU-Nutzer benannt (gemäß DSA Artikel 12), über den sie uns bei anderen Anliegen kontaktieren können.

Im Rahmen unseres Engagements für verantwortungsvolle KI hat ElevenLabs Richtlinien zur Zusammenarbeit mit Regierungsbehörden, einschließlich Strafverfolgungsbehörden, etabliert. In geeigneten Fällen kann dies die Meldung oder Offenlegung von Informationen über verbotene Inhalte sowie die Beantwortung rechtmäßiger Anfragen von Strafverfolgungsbehörden und anderen Regierungsstellen umfassen. Strafverfolgungsbehörden können rechtliche Anfragen an unser Rechtsteam hier richten. Gemäß Artikel 11 des EU-Digital Services Act können Strafverfolgungsbehörden in der EU nicht dringende rechtliche Anfragen an ElevenLabs Sp. z o.o. richten, indem sie ihre DSA-Anfrage über ein Formular hier einreichen, das als einziger Ansprechpartner für direkte Kommunikation mit der Europäischen Kommission, den Behörden der Mitgliedstaaten und dem Europäischen Ausschuss für digitale Dienste benannt wurde. Behörden können mit Eleven Labs auf Englisch und Polnisch kommunizieren. Wo gesetzlich erforderlich, können internationale rechtliche Verfahren die Einreichung über ein Rechtshilfeabkommen erfordern.

Wenn Sie ein EU-Nutzer sind, haben Sie sechs Monate Zeit, um gegen eine Maßnahme von ElevenLabs gegen Ihre Inhalte oder Ihr Konto Berufung einzulegen. Wenn Ihr Konto oder Ihre Inhalte eingeschränkt wurden, können Sie Ihre Berufung einreichen, indem Sie auf die Benachrichtigung antworten, die Sie erhalten haben. Wenn Sie gegen das Ergebnis Ihres DSA-Berichts über illegale Inhalte Berufung einlegen möchten, verwenden Sie bitte das Formular hier.

EU-Nutzer können sich auch an zertifizierte außergerichtliche Schlichtungsstellen wenden, um ihre Streitigkeiten im Zusammenhang mit Inhalts- oder Kontobeschränkungen sowie damit verbundenen Berufungen beizulegen. Entscheidungen von außergerichtlichen Schlichtungsstellen sind nicht bindend.

Die realistischste Voice-AI-Plattform

Background lines