セーフティ

AIオーディオは、可能性とポジティブな影響を引き出すために構築され、責任と悪用から人々を守るセーフガードによって導かれています。

私たちのセーフティミッション

ElevenLabsでは、AIオーディオの大きな利点を深く信じています。私たちの技術は、以前は手の届かなかったオーディエンスにコンテンツや情報を提供し、魅力的な教育ツールを作成し、没入型エンターテインメント体験を提供し、事故や病気で話す能力を失った人々に声を取り戻すなど、数百万の個人や数千の企業によって使用されています。

すべての変革的な技術と同様に、技術が誤用されると害を及ぼす可能性があることも認識しています。そのため、特に他者を欺いたり搾取したりする試みに対して、モデルやプロダクトの誤用を防ぐことに尽力しています。私たちのセーフティ原則は日々の業務を導き、乱用を防止し対処するための具体的で多層的なセーフガードに反映されています。committed to protecting against the misuse of our models and products – especially efforts to deceive or to exploit others.  Our safety principles guide our everyday work and are reflected in concrete, multi-layered safeguards designed to prevent and address abuse.

「AIのセーフティはElevenLabsのイノベーションと切り離せません。システムが安全に開発、展開、使用されることを確保することが私たちの戦略の核心にあります。」

Mati Staniszewski

Mati Staniszewski

Co-founder at ElevenLabs

「AI生成コンテンツの量は増え続けます。デジタルコンテンツの出所を確認するために必要な透明性を提供したいと考えています。」

Piotr Dąbkowski

Piotr Dąbkowski

Co-founder at ElevenLabs

私たちのセーフティ原則

私たちのセーフティプログラムは以下の原則に基づいています:

Safety illustration

私たちのセーフガード

悪意ある行為者が私たちのツールを悪用しようとする際の障害を最大化し、正当なユーザーにはシームレスな体験を提供することを目指しています。どんなセーフティシステムも完璧ではないことを認識しています。時には、セーフガードが善意の行為者を誤ってブロックしたり、悪意ある行為者を見逃したりすることがあります。

多層防御システムで包括的なセーフガードを展開しています。一つの層が突破された場合でも、その先にある追加の層が悪用を捕捉します。私たちのセーフティメカニズムは、モデル、プロダクト、敵対的戦術の進化に合わせて継続的に進化しています。

情報提供

C2PAなどの第三者基準を取り入れ、ディープフェイク検出ツールの強化を支援しています。ElevenLabsを使用して生成されたかどうかを判断するための業界をリードするAIオーディオ分類器を公開しています。

施行

禁止使用ポリシーに違反した顧客には、持続的または深刻な違反者に対する禁止措置を含む施行措置が適用されます。犯罪やその他の違法行為は法執行機関に報告されます。

検出

禁止使用ポリシーの違反をAI分類器、人間のレビュアー、内部調査を活用して積極的に監視しています。外部組織と提携し、潜在的な悪用についての洞察を得るためのメカニズムを確立しています。

防止

モデルはリリース前にレッドチームによる評価を受け、顧客はサインアップ時に審査されます。セレブリティや高リスクの声のクローンをブロックするなど、悪意ある行為者を抑止するためのプロダクト機能も組み込まれています。

セーフティパートナーシッププログラム

ディープフェイクをリアルタイムで検出する技術的ソリューションを開発するために、主要な組織を支援しています。

コンテンツ報告

懸念を引き起こすコンテンツを見つけた場合、私たちのツールで作成されたと考えられる場合は、こちらで報告してください。

禁止コンテンツと使用ポリシー

私たちのツールを使用する際に許可されていないコンテンツや活動について学びましょう。

ElevenLabs AIスピーチ分類器

AIスピーチ分類器を使用して、オーディオクリップがElevenLabsで作成されたかどうかを検出できます。

コンテンツの出所と信頼性のための連合

メディアの出所を追跡する能力を提供するオープンな技術標準。

コンテンツ信頼性イニシアティブ

コンテンツの信頼性と出所のためのオープンな業界標準の採用を促進。

よくある質問

禁止コンテンツと使用ポリシーに違反するコンテンツを見つけた場合、私たちのプラットフォームで作成されたと考えられる場合は、こちらで報告してください。EUユーザーは、違法コンテンツと考えられるものを通知することができます(EUデジタルサービス法第16条に基づく)。また、EUユーザーのための単一の連絡窓口を設けており、他の懸念についてはこちらで連絡できます。

責任あるAIへの取り組みの一環として、ElevenLabsは政府当局、特に法執行機関との協力に関するポリシーを確立しています。適切な場合、禁止コンテンツに関する情報の報告や開示、法執行機関やその他の政府機関からの合法的な問い合わせへの対応を含むことがあります。法執行機関は、こちらの法務チームに連絡して法的な問い合わせを提出できます。 EUデジタルサービス法第11条に基づき、EUの法執行機関は、非緊急の法的手続きをElevenLabs Sp. z o.o.に直接送信することができます。DSAリクエストをこちらのフォームを通じて提出することができ、これは欧州委員会、加盟国当局、デジタルサービス委員会との直接通信のための単一の連絡窓口として指定されています。法執行機関は英語とポーランド語でEleven Labsとコミュニケーションを取ることができます。適用法により必要な場合、国際的な法的手続きは相互法的支援条約を通じて提出する必要があります。

EUユーザーの場合、ElevenLabsがコンテンツやアカウントに対して行った措置に対して、6か月以内に異議を申し立てることができます。アカウントやコンテンツが制限された場合、受け取った通知に返信して異議を申し立てることができます。DSA違法コンテンツ報告の結果に異議を申し立てたい場合は、こちらのフォームを使用してください。

EUユーザーは、コンテンツやアカウントの制限に関連する紛争を解決するために、認定された裁判外紛争解決機関に連絡することもできます。裁判外紛争解決機関の決定は拘束力がありません。

最もリアルな音声AIプラットフォーム

Background lines