Sécurité
Sécurité
Audio IA conçu pour débloquer des possibilités et un impact positif, guidé par la responsabilité et des mesures de protection qui protègent les gens des abus.
Notre mission de sécurité
Chez ElevenLabs, nous croyons profondément aux immenses avantages de l'audio IA. Notre technologie est utilisée par des millions de personnes et des milliers d'entreprises pour rendre le contenu et l'information accessibles à des publics pour lesquels ils étaient auparavant inaccessibles, pour créer des outils éducatifs engageants, pour alimenter des expériences de divertissement immersives, pour redonner la voix à des personnes ayant perdu la capacité de parler en raison d'un accident ou d'une maladie, et bien plus encore.
Comme pour toutes les technologies de transformation, nous reconnaissons également que lorsqu'une technologie est mal utilisée, elle peut causer des dommages. C'est pourquoi nous nous engageons à protéger contre l'abus de nos modèles et produits – en particulier les tentatives de tromperie ou d'exploitation d'autrui. Nos principes de sécurité guident notre travail quotidien et se reflètent dans des mesures de protection concrètes et multi-couches conçues pour prévenir et traiter les abus.committed to protecting against the misuse of our models and products – especially efforts to deceive or to exploit others. Our safety principles guide our everyday work and are reflected in concrete, multi-layered safeguards designed to prevent and address abuse.
« La sécurité de l'IA est indissociable de l'innovation chez ElevenLabs. Assurer que nos systèmes sont développés, déployés et utilisés en toute sécurité reste au cœur de notre stratégie. »

Mati Staniszewski
Co-founder at ElevenLabs
« Le volume de contenu généré par l'IA continuera de croître. Nous voulons offrir la transparence nécessaire, aidant à vérifier les origines du contenu numérique. »

Piotr Dąbkowski
Co-founder at ElevenLabs
Nos principes de sécurité
Notre programme de sécurité est guidé par les principes suivants :
Nos mesures de protection
Nous nous efforçons de maximiser la friction pour les mauvais acteurs tentant de mal utiliser nos outils, tout en maintenant une expérience fluide pour les utilisateurs légitimes. Nous reconnaissons qu'aucun système de sécurité n'est parfait : à l'occasion, les mesures de protection peuvent bloquer par erreur de bons acteurs ou ne pas attraper les acteurs malveillants.
Nous déployons un ensemble complet de mesures de protection dans un système de défense multi-couches. Si une couche est contournée, les couches supplémentaires qui se trouvent au-delà sont en place pour capturer l'abus. Nos mécanismes de sécurité évoluent continuellement pour suivre les avancées de nos modèles, produits et tactiques adverses.
Informer
Nous intégrons des normes tierces telles que C2PA et soutenons les efforts externes pour améliorer les outils de détection de deepfake. Nous avons publié publiquement un classificateur audio IA leader de l'industrie pour aider les autres à déterminer si un contenu a été généré en utilisant ElevenLabs.
Appliquer
Les clients qui violent notre politique d'utilisation interdite sont soumis à des mesures d'application, y compris des interdictions pour les contrevenants persistants ou graves. Nous signalons les activités criminelles et autres activités illégales aux autorités compétentes.
Détecter
Nous surveillons activement notre plateforme pour détecter les violations de notre politique d'utilisation interdite, en utilisant des classificateurs IA, des examinateurs humains et des enquêtes internes. Nous collaborons avec des organisations externes pour obtenir des informations sur les abus potentiels et avons établi un mécanisme permettant au public de signaler les abus.
Prévenir
Nous testons nos modèles avant leur lancement et vérifions nos clients lors de l'inscription. Nous intégrons également des fonctionnalités de produit pour dissuader les acteurs malveillants ou irresponsables, notamment en bloquant le clonage de voix de célébrités et d'autres voix à haut risque, et en exigeant une vérification technologique pour accéder à notre outil de Voice Cloning professionnel.
Programme de partenariat pour la sécurité
Nous soutenons les organisations leaders pour développer des solutions techniques permettant de détecter les deepfakes en temps réel.
Signaler un contenu
Si vous trouvez un contenu qui suscite des inquiétudes et que vous pensez qu'il a été créé avec nos outils, veuillez le signaler ici.
Politique de contenu et d'usages interdits
Découvrez les types de contenu et d'activités qui ne sont pas autorisés lors de l'utilisation de nos outils.
Classificateur de discours IA ElevenLabs
Notre classificateur de discours IA vous permet de détecter si un extrait audio a été créé en utilisant ElevenLabs.
Coalition pour la provenance et l'authenticité du contenu
Une norme technique ouverte permettant de tracer l'origine des médias.
Initiative pour l'authenticité du contenu
Promouvoir l'adoption d'une norme industrielle ouverte pour l'authenticité et la provenance du contenu.