人工知能によって生成されたビデオ 有名人のディープフェイクや偽の災害放送など、どこにでもあります… トランポリン上のウサギのビデオが話題に。 ChatGPT の親会社である OpenAI の AI ビデオ ジェネレーターである Sora は、事実とフィクションを区別することを困難にしました。とソラモデル2a まったく新しいソーシャル メディア アプリ、日に日に複雑になってきています。
過去数か月の間に、TikTokのようなアプリが登場しました それはバイラルになった、AI愛好家はそうすることを決意しています 招待コードを追いかける。しかし、Sora は他のソーシャル メディア プラットフォームとは異なります。 Sora で見られるものはすべて偽物で、すべての動画は AI によって作成されています。私はそれを次のように説明しました AIディープフェイク熱の夢一見無害ですが、水面下には深刻な危険が潜んでいます。
公平な技術コンテンツやラボのレビューをお見逃しなく。 CNET を追加 Google の優先ソースとして。
技術的には、Sora のビデオは、次のような競合他社と比較して優れています。 飛行中 V1 そして Google なるほど 3。高い精度、同期したサウンド、そして驚くべき創造性を備えています。 Sora の最も人気のある機能は「カメオ」と呼ばれ、他の人の写真を使用して、AI が生成したほぼすべてのシーンに挿入できます。これは、不気味なほどリアルなビデオを作成する印象的なツールです。
多くの専門家がソラ氏を懸念しているのはこのためだ。このアプリを使用すると、誰でも簡単に危険な偽物を作成したり、誤った情報を広めたり、本物とそうでないものとの境界線を曖昧にすることができます。公人や有名人は、こうしたディープフェイクや同様のシンジケートに対して特に脆弱です。 SAG-AFTRAはOpenAIにガードレールを強化するよう促した。
AI コンテンツの定義は、テクノロジー企業、ソーシャル メディア プラットフォーム、その他すべての人にとって継続的な課題です。しかし、完全に絶望的なわけではありません。ビデオが Sora で制作されたかどうかを判断するために確認すべき点がいくつかあります。
ソラのウォーターマークを探してください
Sora iOS アプリで作成されたすべてのビデオには、ダウンロード時にウォーターマークが含まれます。ビデオの端で跳ね返るのは、白い Sora のロゴ (雲のアイコン) です。 TikTokビデオに透かしを入れる方法と似ています。
コンテンツに透かしを入れることは、AI 企業が AI によって生成されたコンテンツを視覚的に発見できるようにする最大の方法の 1 つです。たとえば、GoogleのGeminiモデル「nanobanban」では、写真に自動的に透かしが入れられる。ウォーターマークが優れているのは、コンテンツが人工知能の助けを借りて作成されたことを明確に示すためです。
しかし、透かしは完璧ではありません。まず、透かしが静止している (動かない) 場合は、簡単に切り取ることができます。 Sora のようなウォーターマークを転送する場合でも、ウォーターマークを削除するために特別に設計されたアプリがあるため、ウォーターマークだけを完全に信頼することはできません。 OpenAIのCEOであるサム・アルトマン氏は、このことについて尋ねられたとき、次のように答えた。 彼は言いました 社会は、誰でも誰でもフェイクビデオを作成できる世界に適応しなければならないだろう。もちろん、OpenAI の Sora が登場する前には、これらのビデオを作成するための人気があり、アクセスしやすく、スキルを必要としない方法はありませんでした。しかし、彼の議論は、検証のために他の方法に依存する必要性についての正当な論点を提起しています。
メタデータを確認する
おそらく、ビデオのメタデータをチェックしてそれが本物かどうかを判断する方法はないと考えているでしょう。あなたがどこから来たのか理解しています。これは追加のステップであるため、どこから始めればよいかわからないかもしれません。しかし、これはビデオが Sora で制作されたかどうかを判断する優れた方法であり、思ったよりも簡単に実行できます。
メタデータは、コンテンツの作成時に自動的に付加される一連の情報です。写真やビデオの作成方法についての詳しい知識が得られます。これには、写真の撮影に使用されたカメラの種類、場所、ビデオが撮影された日時、ファイル名が含まれる場合があります。人間が作成したものであるか AI が作成したものであるかに関係なく、すべての写真やビデオにはメタデータが含まれています。 AI によって生成されたコンテンツの多くには、AI の起源を示すコンテンツ認証情報も含まれます。
OpenAI は、コンテンツ ソースと信頼性のためのアライアンスの一部です。これは、あなたにとって、Sora ビデオを意味します。 含まれるもの C2PA メタデータ。使用できます コンテンツ信頼性イニシアチブ検証ツール ビデオ、画像、またはドキュメントのメタデータを確認します。その方法は次のとおりです。 (Content Authenticity Initiative は C2PA の一部です。)
画像、ビデオ、ドキュメントのメタデータを確認する方法:
1。この URL にアクセスします。 https://verify.contentauthenticity.org/
2。確認したいファイルをアップロードします。
3。 「開く」をクリックします。
4。右側のパネルの情報を確認してください。 AI によって生成された場合は、コンテンツの概要セクションに含める必要があります。
このツールを通じて Sora ビデオを再生すると、ビデオが「OpenAI によってリリースされた」ことが表示され、AI によって作成されたという事実が表示されます。すべての Sora ビデオには、Sora で作成されたことを確認できるこれらの認証情報が必要です。
すべての AI 検出器と同様、このツールも完璧ではありません。 AI ビデオが検出を回避できる方法はいくつかあります。 Sora 以外の動画がある場合、ツールが AI によって生成されたかどうかを判断するために必要なフラグがメタデータに含まれていない可能性があります。たとえば、私がテストで確認したように、Midjourney で作成された AI ビデオにはフラグが立てられません。たとえそのビデオが Sora によって作成され、その後サードパーティのアプリ (透かし除去アプリなど) を通じて再生され、再ダウンロードされたとしても、ツールがそれを AI として識別する可能性は低いでしょう。
Content Authentication Initiative の検証ツールは、Sora で作成したビデオが AI によって作成されたものであることを、作成日時とともに正しく識別しました。
他の AI 分類を検索し、独自の分類を含めます
Instagram や Facebook など、Meta のソーシャル メディア プラットフォームのいずれかを使用している場合は、何かが AI ベースかどうかを判断するのに少し役立つかもしれません。メタは 社内体制が整っている AI コンテンツ自体をタグ付けして分類するのに役立ちます。これらのシステムは完璧ではありませんが、フラグが付けられた投稿の評価を明確に確認できます。 ティックトック そして YouTube AI コンテンツ分類にも同様のポリシーがあります。
何かが AI によって作成されたかどうかを知る唯一の信頼できる方法は、作成者がそれを明らかにすることです。現在、多くのソーシャル メディア プラットフォームでは、ユーザーが自分の投稿に人工知能によって生成されたものとしてラベルを付けることができる設定が提供されています。キャプション内の単純なクレジットや開示でも、あなたがどのようにして何かを作成したかを誰もが理解するのに大いに役立ちます。
ソラの前を通り過ぎると、何も現実ではないことがわかります。ただし、アプリを離れて AI が生成したビデオを共有した後は、そのビデオがどのように作成されたかを開示するのは私たちの共同責任です。 Sora のような AI モデルは現実と AI の間の境界線を曖昧にし続けているため、何かが現実なのか AI なのかを可能な限り明確にするのは私たち全員にかかっています。
最も重要なことは、警戒を続けることです
ビデオが本物であるか、AI を利用したものであるかを一目で正確に知る唯一の絶対確実な方法はありません。詐欺に遭わないようにするためにできる最善のことは、オンラインで目にするものすべてを自動的かつ疑いなく信じないことです。自分の直感に従いましょう – 何かが非現実的に感じられるなら、それはおそらく現実です。この前例のない AI だらけの時代において、最善の防御策は、視聴するビデオを詳しく調べることです。何も考えずにただ眺めたりスクロールしたりしないでください。歪んだテキスト、消えるオブジェクト、物理学を無視したアニメーションを確認してください。時々騙されても自分を責めないでください。専門家でも間違いはあります。
(開示: CNET の親会社である Ziff Davis は、4 月に OpenAI に対して、AI システムのトレーニングと運用において Ziff Davis の著作権を侵害したとして訴訟を起こしました。)