Sécurité

Audio IA conçu pour débloquer des possibilités et un impact positif, guidé par la responsabilité et des mesures de protection qui protègent les gens des abus.

Notre mission de sécurité

Chez ElevenLabs, nous croyons profondément aux immenses avantages de l'audio IA. Notre technologie est utilisée par des millions de personnes et des milliers d'entreprises pour rendre le contenu et l'information accessibles à des publics pour lesquels ils étaient auparavant inaccessibles, pour créer des outils éducatifs engageants, pour alimenter des expériences de divertissement immersives, pour redonner la voix à des personnes ayant perdu la capacité de parler en raison d'un accident ou d'une maladie, et bien plus encore.

Comme pour toutes les technologies de transformation, nous reconnaissons également que lorsqu'une technologie est mal utilisée, elle peut causer des dommages. C'est pourquoi nous nous engageons à protéger contre l'abus de nos modèles et produits – en particulier les tentatives de tromperie ou d'exploitation d'autrui. Nos principes de sécurité guident notre travail quotidien et se reflètent dans des mesures de protection concrètes et multi-couches conçues pour prévenir et traiter les abus.committed to protecting against the misuse of our models and products – especially efforts to deceive or to exploit others.  Our safety principles guide our everyday work and are reflected in concrete, multi-layered safeguards designed to prevent and address abuse.

« La sécurité de l'IA est indissociable de l'innovation chez ElevenLabs. Assurer que nos systèmes sont développés, déployés et utilisés en toute sécurité reste au cœur de notre stratégie. »

Mati Staniszewski

Mati Staniszewski

Co-founder at ElevenLabs

« Le volume de contenu généré par l'IA continuera de croître. Nous voulons offrir la transparence nécessaire, aidant à vérifier les origines du contenu numérique. »

Piotr Dąbkowski

Piotr Dąbkowski

Co-founder at ElevenLabs

Nos principes de sécurité

Notre programme de sécurité est guidé par les principes suivants :

Safety illustration

Nos mesures de protection

Nous nous efforçons de maximiser la friction pour les mauvais acteurs tentant de mal utiliser nos outils, tout en maintenant une expérience fluide pour les utilisateurs légitimes. Nous reconnaissons qu'aucun système de sécurité n'est parfait : à l'occasion, les mesures de protection peuvent bloquer par erreur de bons acteurs ou ne pas attraper les acteurs malveillants.

Nous déployons un ensemble complet de mesures de protection dans un système de défense multi-couches. Si une couche est contournée, les couches supplémentaires qui se trouvent au-delà sont en place pour capturer l'abus. Nos mécanismes de sécurité évoluent continuellement pour suivre les avancées de nos modèles, produits et tactiques adverses.

Informer

Nous intégrons des normes tierces telles que C2PA et soutenons les efforts externes pour améliorer les outils de détection de deepfake. Nous avons publié publiquement un classificateur audio IA leader de l'industrie pour aider les autres à déterminer si un contenu a été généré en utilisant ElevenLabs.

Appliquer

Les clients qui violent notre politique d'utilisation interdite sont soumis à des mesures d'application, y compris des interdictions pour les contrevenants persistants ou graves. Nous signalons les activités criminelles et autres activités illégales aux autorités compétentes.

Détecter

Nous surveillons activement notre plateforme pour détecter les violations de notre politique d'utilisation interdite, en utilisant des classificateurs IA, des examinateurs humains et des enquêtes internes. Nous collaborons avec des organisations externes pour obtenir des informations sur les abus potentiels et avons établi un mécanisme permettant au public de signaler les abus.

Prévenir

Nous testons nos modèles avant leur lancement et vérifions nos clients lors de l'inscription. Nous intégrons également des fonctionnalités de produit pour dissuader les acteurs malveillants ou irresponsables, notamment en bloquant le clonage de voix de célébrités et d'autres voix à haut risque, et en exigeant une vérification technologique pour accéder à notre outil de Voice Cloning professionnel.

Programme de partenariat pour la sécurité

Nous soutenons les organisations leaders pour développer des solutions techniques permettant de détecter les deepfakes en temps réel.

Signaler un contenu

Si vous trouvez un contenu qui suscite des inquiétudes et que vous pensez qu'il a été créé avec nos outils, veuillez le signaler ici.

Politique de contenu et d'usages interdits

Découvrez les types de contenu et d'activités qui ne sont pas autorisés lors de l'utilisation de nos outils.

Classificateur de discours IA ElevenLabs

Notre classificateur de discours IA vous permet de détecter si un extrait audio a été créé en utilisant ElevenLabs.

Coalition pour la provenance et l'authenticité du contenu

Une norme technique ouverte permettant de tracer l'origine des médias.

Initiative pour l'authenticité du contenu

Promouvoir l'adoption d'une norme industrielle ouverte pour l'authenticité et la provenance du contenu.

Questions fréquentes

Si vous tombez sur un contenu qui viole notre politique de contenu et d'usages interdits, et que vous pensez qu'il a été créé sur notre plateforme, veuillez le signaler ici. Les utilisateurs de l'UE peuvent nous notifier des contenus qu'ils estiment illégaux (conformément à l'article 16 de la DSA de l'UE) ici. Nous avons également désigné un point de contact unique pour les utilisateurs de l'UE (conformément à l'article 12 de la DSA) où ils peuvent nous contacter pour d'autres préoccupations ici.

Dans le cadre de notre engagement envers une IA responsable, ElevenLabs a établi des politiques concernant la coopération avec les autorités gouvernementales, y compris les agences d'application de la loi. Dans certains cas appropriés, cela peut inclure le signalement ou la divulgation d'informations sur le contenu interdit, ainsi que la réponse aux demandes légales des forces de l'ordre et d'autres entités gouvernementales. Les autorités peuvent soumettre des demandes légales en contactant notre équipe juridique ici. Conformément à l'article 11 de la DSA de l'UE, les autorités de l'UE peuvent adresser des demandes légales non urgentes à ElevenLabs Sp. z o.o. en soumettant leur demande DSA via un formulaire ici, qui a été désigné comme le point de contact unique pour les communications directes avec la Commission européenne, les autorités des États membres et le Conseil européen des services numériques. Les autorités peuvent communiquer avec Eleven Labs en anglais et en polonais. Lorsque la loi applicable l'exige, les processus juridiques internationaux peuvent nécessiter une soumission via un traité d'entraide judiciaire.

Si vous êtes un utilisateur de l'UE, vous avez six mois pour faire appel d'une action qu'ElevenLabs a prise contre votre contenu ou votre compte. Si votre compte ou contenu a été restreint, vous pouvez soumettre votre appel en répondant à la notification que vous avez reçue. Si vous souhaitez contester le résultat de votre rapport de contenu illégal DSA, veuillez utiliser le formulaire ici.

Les utilisateurs de l'UE peuvent également contacter des organismes de règlement extrajudiciaire certifiés pour les aider à résoudre leurs litiges relatifs aux restrictions de contenu ou de compte, ainsi que les appels connexes. Les décisions des organismes de règlement extrajudiciaire ne sont pas contraignantes.

La plateforme de voix IA la plus réaliste

Background lines