Seguridad
Seguridad
Audio creado con IA para desbloquear posibilidades e impacto positivo, guiado por responsabilidad y medidas de protección que evitan el mal uso.
Nuestra Misión de Seguridad
En ElevenLabs, creemos profundamente en los inmensos beneficios del audio creado con IA. Nuestra tecnología es utilizada por millones de personas y miles de empresas para hacer que el contenido y la información sean accesibles a audiencias para las que antes estaban fuera de alcance, para crear herramientas educativas atractivas, para potenciar experiencias de entretenimiento inmersivas, para devolver la voz a personas que han perdido la capacidad de hablar debido a accidentes o enfermedades, y mucho más.
Como con todas las tecnologías transformadoras, también reconocemos que cuando se hace un mal uso de la tecnología, puede causar daño. Por eso nos comprometemos a proteger contra el mal uso de nuestros modelos y productos, especialmente los esfuerzos para engañar o explotar a otros. Nuestros principios de seguridad guían nuestro trabajo diario y se reflejan en salvaguardas concretas y en múltiples capas diseñadas para prevenir y abordar el abuso.committed to protecting against the misuse of our models and products – especially efforts to deceive or to exploit others. Our safety principles guide our everyday work and are reflected in concrete, multi-layered safeguards designed to prevent and address abuse.
“La seguridad en IA es inseparable de la innovación en ElevenLabs. Asegurar que nuestros sistemas se desarrollen, desplieguen y utilicen de manera segura sigue siendo el núcleo de nuestra estrategia.”

Mati Staniszewski
Co-founder at ElevenLabs
“El volumen de contenido generado por IA seguirá creciendo. Queremos proporcionar la transparencia necesaria, ayudando a verificar los orígenes del contenido digital.”

Piotr Dąbkowski
Co-founder at ElevenLabs
Nuestros Principios de Seguridad
Nuestro programa de seguridad se guía por los siguientes principios:
Nuestras Salvaguardas
Nos esforzamos por maximizar la fricción para los malos actores que intentan hacer un mal uso de nuestras herramientas, mientras mantenemos una experiencia fluida para los usuarios legítimos. Reconocemos que ningún sistema de seguridad es perfecto: en ocasiones, las salvaguardas pueden bloquear erróneamente a buenos actores o no detectar a los malintencionados.
Desplegamos un conjunto completo de salvaguardas en un sistema de defensa en múltiples capas. Si una capa es superada, las capas adicionales que están más allá están en su lugar para capturar el mal uso. Nuestros mecanismos de seguridad están en constante evolución para mantenerse al ritmo de los avances en nuestros modelos, productos y tácticas adversarias.
Informar
Incorporamos estándares de terceros como C2PA y apoyamos esfuerzos externos para mejorar las herramientas de detección de deepfakes. Hemos lanzado públicamente un clasificador de audio creado con IA líder en la industria para ayudar a otros a determinar si un contenido fue generado usando ElevenLabs.
Aplicar
Los clientes que violan nuestra Política de Uso Prohibido están sujetos a acciones de aplicación, incluyendo prohibiciones para infractores persistentes o graves. Referimos actividades criminales y otras ilegales a las autoridades competentes.
Detectar
Monitorizamos activamente nuestra plataforma para detectar violaciones de nuestra Política de Uso Prohibido, utilizando clasificadores de IA, revisores humanos e investigaciones internas. Colaboramos con organizaciones externas para obtener información sobre posibles abusos y hemos establecido un mecanismo a través del cual el público puede reportar abusos.
Prevenir
Probamos nuestros modelos antes de su lanzamiento y verificamos a nuestros clientes al registrarse. También integramos características en el producto para disuadir a actores malintencionados o irresponsables, incluyendo el bloqueo de la clonación de voces de celebridades y otras de alto riesgo, y requerimos verificación tecnológica para acceder a nuestra herramienta de Voice Cloning Profesional.
Programa de Colaboración en Seguridad
Apoyamos a organizaciones líderes para desarrollar soluciones técnicas que detecten deepfakes en tiempo real.
Reportar Contenido
Si encuentras contenido que genera preocupación y crees que fue creado con nuestras herramientas, por favor repórtalo aquí.
Política de contenido y usos prohibidos
Conoce los tipos de contenido y actividades que no están permitidos al usar nuestras herramientas.
Clasificador de Voz IA de ElevenLabs
Nuestro Clasificador de Voz IA te permite detectar si un clip de audio fue creado usando ElevenLabs.
Coalición para la Procedencia y Autenticidad del Contenido
Un estándar técnico abierto que proporciona la capacidad de rastrear el origen de los medios.
Iniciativa de Autenticidad del Contenido
Promoviendo la adopción de un estándar abierto de la industria para la autenticidad y procedencia del contenido.