Article Title
ディープフェイクを見破る技術
2024/12/20

Share

Line

LinkedIn

URLをコピー


概要

巧妙なディープフェイク詐欺への対応は、サイバーセキュリティ業界にとって大きな課題であると同時に、大きなチャンスでもあります。



Article Body Text

史上稀に見る多くの選挙が行われた2024年には、世界全体でおよそ40億人の有権者が投票を行ったとみられます。残念ながら、この選挙イヤーと、人工知能(AI)を駆使して生成され、有権者を惑わす偽の情報を拡散させるおそれのあるディープフェイク(Deepfake)時代の到来が重なりました。

ディープフェイクは、ディープラーニング(Deep Learning:深層学習)というAI技術を使って人の顔や声に似せた画像や音声を複製する合成メディアの一種です。偽の画像や音声は、政治家や企業経営者の画像やビデオなどの大量のデータを使い、機械学習モデルに各人固有の特徴を学習させて、生成されます。学習させるデータ量が多いほど、本物と見分けがつきにくい精巧なフェイクが生成できるため、政治家や有名人が標的になりやすいのです。また、ディープフェイクのリスクが増すにつれて、高度なサイバーセキュリティへの投資需要も高まっています。

スロバキアでは昨年(2023年)、ある候補者が不正投票の方法を話し合う音声のディ-プフェイクが投票開始の48時間前に拡散しましたが、デマを払拭するのに十分な時間がありませんでした。同様にバングラデシュでは、1月の投票日当日にAIを使って生成された独立系の候補者の撤退表明の動画が拡散しました。また、1月には州の予備選で投票しないよう呼びかけるバイデン大統領の声を模した自動音声通話(ロボコール)が、米国の有権者に送られました。米国の政治家たちは、この問題への投資の必要性を認識しており、2020年に選挙セキュリティに4億米ドルが計上された際、多くの州当局者が助成金申請でサイバーセキュリティを優先したことを明言しています。

ディープフェイクは政治の場だけに悪用されるわけではありません。ある調査によれば、サイバーセキュリティの専門家の66%が、2022年に起きたサイバー攻撃の一部にディープフェイクが使われたことを確認しています1。また同じ年に中小企業の26%、大企業の38%がAIが生成した身分詐称詐欺の標的になっています2。ある企業では、最高財務責任者(CFO)が従業員に資金を要求する偽の動画による詐欺で、2,560万米ドルの損失を被りました。

2019年から2020年にかけてのわずか1年間で、オンライン上のディ-プフェイクコンテンツは世界全体で900%増加しています3。今後2026年までには、オンライン上のデジタル・コンテンツの大半がAIを使って合成される可能性があり、コンテンツの真偽を見分けることがますます難しくなりそうです。

「生成AI分野は日ごとに進化しており、ディープフェイクも質が改善され、本物に近付いています」と、インテル・スタジオ(Intel Studios)のリサーチ・サイエンティストを務めるイルケ・ドゥマー博士(Ilke Demir)は話しています。偽物に先手を打つため、企業はサイバーセキュリティ投資を加速させており、2022年には、IT関連の設備投資の平均10%程度をサイバーセキュリティに充てています4。この需要の増加により、2兆米ドル規模のサイバーセキュリティ市場が創られている、とコンサルティング大手のマッキンゼーは試算しています。



ディープフェイク防御

しかし、偽物が優勢を保っています。「イタチごっこのような状況が繰り広げられていますが、今のところ、生成AIを使った新しい形のコンテンツの開発のために投じられる資金量が、堅固な防御技術開発のための資金量を遥かに上回っています」と、ディープフェイクおよびAI関連のアドバイザーを務めるヘンリー・アジャー(Henry Ajder)氏は話しています。

ディープフェイク探知ツールは新しい状況に対応すべく進化を続けています。従来、ツールの多くは欧米で収集されたデータを使って訓練されてきましたが、韓国の警察は選挙に備えて自国のデータを使って学習させたソフトウェアを開発しました。このツールは、AIを使って、偽の可能性があるコンテンツを既存のコンテンツと比較することで、ディープフェイク技術を使って操作されたものかどうかを判断しており、精度は80%であるとされています。

多くのディープフェイク探知ツールは、音声や画像の小さな異常を見分けてそれが操作されたものかどうかを確認するために、このような手法を用いています。しかし、これまでで最も効果を挙げてきた技術の一つは、その逆のアプローチ、つまり本物のコンテンツのユニークな特性をディープフェイクが捉えることができないことを利用するものです。インテル(Intel)のFakeCatcher(フェイク・キャッチャー)は、顔の血流の変化を探知するフォトプレチスモグラフィ(PPG)を使って、人間の偽画像を特定する優れたツールです。「心臓が血管に血液を送り出すとき、血管の色が変わります。人間の目には見えない色の変化が、コンピューター上では可視化できるのです」とフェイク・キャッチャーを開発したドゥマー博士は述べています。

フェイク・キャッチャーは顔のあらゆる部位からPPG信号を集めて、信号の空間特性と時間特性から地図を作成します。この地図が画像を本物と偽物に分類するよう神経回路網(ニューラル・ネットワーク)を学習させるために使われます。ドゥマー博士によれば、このソフトウェアのメリットはPPG信号が複製できないことにあります。「PPG信号を生成AIモデルに入力し、学習させる手法はありません。ですから、フェイク・キャッチャーは非常に堅固なのです。」

フェイク・キャッチャーは96%の精度でディープフェイクを検出します。英国の公共放送BBCは、フェイク・キャッチャーが本物と偽物の画像を区別出来るかどうかを検証し、偽の画像1件を除いた全ての画像を正しく認識したことを確認しました。本物の画像を偽物と間違えた場合が何件かありましたが、これはピクセル化が不鮮明だったこと、あるいは画像が正面ではなく側面から撮影されていたことが原因のようです。ドゥマー博士は、「可能な限り多くの解釈可能な信号を提供しようと務めていますが、最終判断はフェイク・キャッチャーの利用者が様々な信号を見た上で下すべきだと考えます」と、話しています。

一方、アジャー氏によれば、どのディープフェイク探知ツールにもメリットとデメリットがあるとのことです。アジャー氏は、グーグル(Google)、インテル(Intel)、マイクロソフト(Microsoft)など、ハイテク業界の支持を得て創設された「コンテンツの来歴や信頼性に関する技術標準化団体(Coalition for Content Provenance and Authenticity:C2PA)」の取り組み、つまり事実上のデジタル署名に期待を寄せていると話しています。「メディアがどのようなツールを使ってどのように作られたかについての透明性を提供するメタデータを、暗号化された安全な手法で付加できる技術が注目されています。安全性を確保するには最も優れた技術ですが、極めて野心的な課題です。」

C2PAは、コンテンツの信憑性を示す基準を策定しようとしています。「こうした技術を普及させようとの試みが増していることは明らかです。関係者、特に大手企業が協働し、規格を統一しなければ、認証のための製品とプラットフォームが増えすぎて一般ユーザーを混乱させることになりかねません」とアジャー氏は話しています。

また、このような手法にメリットがある一方で、撮影された場所や時間など、画像に関するデータが過度に公開されることになりかねないとの懸念もあり、プライバシー侵害など、倫理上の問題が起こる可能性も考えられます。これは、例えば人権団体が活動しているような状況下ではリスクになり得ます。

ディープフェイクの問題を技術だけで解決することは不可能であり、すべての消費者がメディアに対して批判的な姿勢と持つ必要があると考えます。「私たちは消費者として、目に入るものをすべて信じてしまうのではなく、コンテンツの中身の信憑性や追加の認証を求めるように行動を変えていく必要がありますが、それは容易なことではありません」とアジャー氏は話しています。


[1」VMware Inc, “Global incident response threat report”, 2022

[2]Regula, “The state of identity verification in 2023”

[3]Sentinel, “Deepfakes 2020: the tipping point”

[4]Ians, Artico, “Security budget benchmark summary report 2022” 


投資のためのインサイト

― ピクテ・アセット・マネジメント テーマ株式運用チーム シニア・インベストメント・マネージャー、イヴ・クレマー(Yves Kramer)によると


・AIや生成AIは、サイバー攻撃やデータの侵害、悪意のあるデータ操作に脆弱であり得ますが、こうした状況が、高度な防御策に対する需要を増しています。IT分野に特化した調査会社ガートナーによれば、2024年のサイバーセキュリティ関連投資は前年比14%前後の増加が見込まれており、今後、AIの普及に伴い、投資の伸びが加速することが予想されます。セキュリティの侵害は、機密情報に対するユーザーの信頼を損ない、ランサムウェア攻撃のリスクを高め、企業の業務を停止させることがあり得ます。


・決して信用せず常に検証せよ、との考えに基づいた「ゼロトラスト・ソリューション」の台頭が予想されます。これは、組織内外から組織にアクセスする個人の資格情報を継続して検証することで、ユーザーアクセスを制御します。クラウド上に保管されたデータを守るために設計されたSASE(Secure Access Service Edge:サシー)の導入も伸びると見ています。SASEは、ゼロトラストに基づいて構築されており、ID管理とユーザー行動監視を活用して、継続的にポリシーを変更します。


・生成AIもソリューションの一部となる可能性があります。これは、サイバーセキュリティ業界が大規模言語モデル(LLM)を活用し、サイバー攻撃をこれまでよりも迅速に探知し、LLMを使わずに書かれた悪意のあるコードがもたらす可能性のある脅威に反撃しようとしているからです。そのため、セキュリティ業界と投資家の双方に絶好の機会が提供されていると考えます。デジタル・ディフェンスの構築にAIを活用できるサイバーセキュリティ企業は、今後も力強い成長を遂げるものと考えます。中でも、インフラ投資を優先する企業や、特殊なセキュリティソフトウェアやアプリを開発する企業は特に注目されます。


●当資料はピクテ・グループの海外拠点からの情報提供に基づき、ピクテ・ジャパン株式会社が翻訳・編集し、作成した資料であり、特定の商品の勧誘や売買の推奨等を目的としたものではなく、また特定の銘柄および市場の推奨やその価格動向を示唆するものでもありません。
●運用による損益は、すべて投資者の皆さまに帰属します。
●当資料に記載された過去の実績は、将来の成果等を示唆あるいは保証するものではありません。
●当資料は信頼できると考えられる情報に基づき作成されていますが、その正確性、完全性、使用目的への適合性を保証するものではありません。
●当資料中に示された情報等は、作成日現在のものであり、事前の連絡なしに変更されることがあります。
●投資信託は預金等ではなく元本および利回りの保証はありません。
●投資信託は、預金や保険契約と異なり、預金保険機構・保険契約者保護機構の保護の対象ではありません。
●登録金融機関でご購入いただいた投資信託は、投資者保護基金の対象とはなりません。
●当資料に掲載されているいかなる情報も、法務、会計、税務、経営、投資その他に係る助言を構成するものではありません。

手数料およびリスクについてはこちら

個別の銘柄・企業については、あくまでも参考であり、その銘柄・企業の売買を推奨するものではありません。また、医薬品についてもあくまで参考として紹介したものであり、その医薬品を推奨するものではありません。




関連記事


人工知能(AI)の真の可能性

米大統領選を終えて新興国債券市場を展望する

データセンター:AIのインパクトを活用する

2024年11月の新興国株式市場

Climate crunch 気候危機 ~ネットゼロの移行リスクに迫る

すべてを電化する方法