Zabezpieczenia
Zabezpieczenia
Audio AI stworzone, by otwierać możliwości i pozytywny wpływ, kierowane odpowiedzialnością i zabezpieczeniami chroniącymi ludzi przed nadużyciami.
Nasza misja dotycząca zabezpieczeń
W ElevenLabs głęboko wierzymy w ogromne korzyści płynące z audio AI. Nasza technologia jest używana przez miliony osób i tysiące firm, aby udostępniać treści i informacje dla odbiorców, dla których wcześniej były one niedostępne, tworzyć angażujące narzędzia edukacyjne, napędzać wciągające doświadczenia rozrywkowe, przywracać głosy osobom, które straciły zdolność mówienia z powodu wypadku lub choroby, i wiele więcej.
Jak w przypadku wszystkich przełomowych technologii, zdajemy sobie sprawę, że niewłaściwe użycie może wyrządzić szkody. Dlatego zobowiązujemy się do ochrony przed nadużyciami naszych modeli i produktów – zwłaszcza prób oszustwa lub wykorzystywania innych. Nasze zasady bezpieczeństwa kierują naszą codzienną pracą i są odzwierciedlone w konkretnych, wielowarstwowych zabezpieczeniach zaprojektowanych, by zapobiegać nadużyciom i na nie reagować.committed to protecting against the misuse of our models and products – especially efforts to deceive or to exploit others. Our safety principles guide our everyday work and are reflected in concrete, multi-layered safeguards designed to prevent and address abuse.
„Bezpieczeństwo AI jest nierozerwalnie związane z innowacjami w ElevenLabs. Zapewnienie, że nasze systemy są rozwijane, wdrażane i używane bezpiecznie, pozostaje w centrum naszej strategii.”

Mati Staniszewski
Co-founder at ElevenLabs
„Ilość treści generowanych przez AI będzie nadal rosła. Chcemy zapewnić potrzebną przejrzystość, pomagając weryfikować pochodzenie treści cyfrowych.”

Piotr Dąbkowski
Co-founder at ElevenLabs
Nasze zasady bezpieczeństwa
Nasz program bezpieczeństwa kieruje się następującymi zasadami:
Nasze zabezpieczenia
Staramy się maksymalnie utrudniać działanie złym aktorom próbującym nadużywać naszych narzędzi, jednocześnie zapewniając płynne doświadczenie dla uczciwych użytkowników. Rozumiemy, że żaden system bezpieczeństwa nie jest doskonały: czasami zabezpieczenia mogą błędnie blokować dobrych aktorów lub nie wychwycić złych.
Wdrażamy kompleksowy zestaw zabezpieczeń w systemie wielowarstwowej obrony. Jeśli jedna warstwa zostanie ominięta, dodatkowe warstwy są gotowe do wychwycenia nadużycia. Nasze mechanizmy bezpieczeństwa ciągle się rozwijają, aby nadążać za postępem w naszych modelach, produktach i taktykach przeciwników.
Informowanie
Włączamy standardy zewnętrzne, takie jak C2PA, i wspieramy zewnętrzne wysiłki na rzecz ulepszania narzędzi do wykrywania deepfake'ów. Publicznie udostępniliśmy wiodący w branży AI Audio Classifier, aby pomóc innym określić, czy treść została wygenerowana przy użyciu ElevenLabs.
Egzekwowanie
Klienci naruszający naszą Politykę Zakazanych Użyć podlegają działaniom egzekucyjnym, w tym zakazom dla uporczywych lub poważnych naruszycieli. Przekazujemy działania przestępcze i inne nielegalne działania organom ścigania.
Wykrywanie
Aktywnie monitorujemy naszą platformę pod kątem naruszeń naszej Polityki Zakazanych Użyć, wykorzystując klasyfikatory AI, recenzentów ludzkich i wewnętrzne dochodzenia. Współpracujemy z zewnętrznymi organizacjami, aby uzyskać informacje o potencjalnych nadużyciach i ustanowiliśmy mechanizm, przez który społeczeństwo może zgłaszać nadużycia.
Zapobieganie
Testujemy nasze modele przed wydaniem i sprawdzamy klientów przy rejestracji. Wbudowujemy funkcje, które odstraszają nieodpowiedzialnych użytkowników, w tym blokowanie klonowania głosów celebrytów i innych wysokiego ryzyka oraz wymaganie weryfikacji technologicznej do dostępu do naszego narzędzia Professional Voice Cloning.
Program partnerski bezpieczeństwa
Wspieramy wiodące organizacje w opracowywaniu technicznych rozwiązań do wykrywania deepfake'ów w czasie rzeczywistym.
Zgłoś treść
Jeśli znajdziesz treść, która budzi obawy i uważasz, że została stworzona za pomocą naszych narzędzi, zgłoś to tutaj.
Polityka zakazanych treści i użyć
Dowiedz się o rodzajach treści i działań, które są niedozwolone przy użyciu naszych narzędzi.
Klasyfikator mowy AI ElevenLabs
Nasz Klasyfikator Mowy AI pozwala wykryć, czy klip audio został stworzony przy użyciu ElevenLabs.
Koalicja na rzecz pochodzenia i autentyczności treści
Otwarty standard techniczny umożliwiający śledzenie pochodzenia mediów.
Inicjatywa autentyczności treści
Promowanie przyjęcia otwartego standardu branżowego dla autentyczności i pochodzenia treści.