セーフティ
セーフティ
AIオーディオは、可能性とポジティブな影響を引き出すために構築され、責任と悪用から人々を守るセーフガードによって導かれています。
私たちのセーフティミッション
ElevenLabsでは、AIオーディオの大きな利点を深く信じています。私たちの技術は、以前は手の届かなかったオーディエンスにコンテンツや情報を提供し、魅力的な教育ツールを作成し、没入型エンターテインメント体験を提供し、事故や病気で話す能力を失った人々に声を取り戻すなど、数百万の個人や数千の企業によって使用されています。
すべての変革的な技術と同様に、技術が誤用されると害を及ぼす可能性があることも認識しています。そのため、特に他者を欺いたり搾取したりする試みに対して、モデルやプロダクトの誤用を防ぐことに尽力しています。私たちのセーフティ原則は日々の業務を導き、乱用を防止し対処するための具体的で多層的なセーフガードに反映されています。committed to protecting against the misuse of our models and products – especially efforts to deceive or to exploit others. Our safety principles guide our everyday work and are reflected in concrete, multi-layered safeguards designed to prevent and address abuse.
「AIのセーフティはElevenLabsのイノベーションと切り離せません。システムが安全に開発、展開、使用されることを確保することが私たちの戦略の核心にあります。」

Mati Staniszewski
Co-founder at ElevenLabs
「AI生成コンテンツの量は増え続けます。デジタルコンテンツの出所を確認するために必要な透明性を提供したいと考えています。」

Piotr Dąbkowski
Co-founder at ElevenLabs
私たちのセーフティ原則
私たちのセーフティプログラムは以下の原則に基づいています:
私たちのセーフガード
悪意ある行為者が私たちのツールを悪用しようとする際の障害を最大化し、正当なユーザーにはシームレスな体験を提供することを目指しています。どんなセーフティシステムも完璧ではないことを認識しています。時には、セーフガードが善意の行為者を誤ってブロックしたり、悪意ある行為者を見逃したりすることがあります。
多層防御システムで包括的なセーフガードを展開しています。一つの層が突破された場合でも、その先にある追加の層が悪用を捕捉します。私たちのセーフティメカニズムは、モデル、プロダクト、敵対的戦術の進化に合わせて継続的に進化しています。
情報提供
C2PAなどの第三者基準を取り入れ、ディープフェイク検出ツールの強化を支援しています。ElevenLabsを使用して生成されたかどうかを判断するための業界をリードするAIオーディオ分類器を公開しています。
施行
禁止使用ポリシーに違反した顧客には、持続的または深刻な違反者に対する禁止措置を含む施行措置が適用されます。犯罪やその他の違法行為は法執行機関に報告されます。
検出
禁止使用ポリシーの違反をAI分類器、人間のレビュアー、内部調査を活用して積極的に監視しています。外部組織と提携し、潜在的な悪用についての洞察を得るためのメカニズムを確立しています。
防止
モデルはリリース前にレッドチームによる評価を受け、顧客はサインアップ時に審査されます。セレブリティや高リスクの声のクローンをブロックするなど、悪意ある行為者を抑止するためのプロダクト機能も組み込まれています。
セーフティパートナーシッププログラム
ディープフェイクをリアルタイムで検出する技術的ソリューションを開発するために、主要な組織を支援しています。