Ximera Media Next Trends #58|Ikuo Morisugi|2024.02.28
はじめに
生成AIによるリスクが高まっている現代では、既存ビジネスへの脅威が顕著になっています。特に生成AIにおけるハルシネーション(幻覚)による混乱、記事の自動生成・検索エンジンの信頼性低下やAI動画生成ソリューションの登場など、人間が騙されてしまうフェイクコンテンツの大量氾濫が既に発生しており、今後さらに懸念が増幅されることが予想されます。おまけにアメリカは2024年に大統領選を控え、フェイクコンテンツへの対策の重要度が強く増しています。本稿ではAIのリスクおよびそれに対するソリューションを取り上げ、今後メディアが取るべき対応について示唆を得ることを目的としています。
AIによるリスクが一層高まっている
既に各所で話題となっていますが、生成AIスパムによる既存ビジネスへの脅威が起こっています。例えば既存のパブリッシャーが提供する記事をベースに、生成AIによる記事が大量にポストされ、SEOが進んでしまった結果、パブリッシャーが元々持っていたユーザトラフィックが盗まれています。また生成AIが事象に関するキーワードだけをベースに事実に基づかない記事を自動生成し、それがトラフィックを得て検索結果上位に位置されてしまう事態も起こっています。こうしてオリジナルの記事を提供していたメディア側はトラフィックも奪われてしまった上に、メディアとしての信頼性や検索エンジン結果の信頼性も同時に下がってしまう三重苦の状況が発生してしまいます。
また直近でGoogleやOpen AIが非常にリアリティのある動画をAIで生成できるソリューション(Google LUMIERE、Open AI Sora)をそれぞれ発表しました。まだ一般利用はできないものの、ひとたびこのツールを多くの人たちが利用できるようにすれば効率性・生産性の向上に大きく寄与すると同時に、テキストだけではなく音声・動画も含めた大量のフェイクコンテンツが氾濫することは想像に難くありません。
他にもChatGPTをはじめ、生成AIにはハルシネーションと呼ばれる幻覚症状を起こすことがあります。自社でチューニングしたAIが思い通りの結果を返さないことや暴走したように見える回答をして、炎上してしまうリスクをはらんでいます。AIはあくまで統計的確率論で動いているにすぎないので、トピックによっては論理的には成立してもまったく事実とは異なることを吹聴する場合があります。このことはAIをよく利用する人にとっては共通認識になりつつはありますが、人々が全員同レベルの警戒心を持ってAIに接するのは困難であり、多くの人がAIに騙されてしまうリスクは依然として高く、提供側でも何らかの対策が必要です。
現在AIの急速な普及が進む中でこうした生成AIに対するリスク対応がより重要度・緊急度が増しています。特にアメリカに関しては、2024年11月に大統領選を控えており、すでに予備選挙段階からフェイクニュース対策は非常に重要なテーマとなっています。
AI検証容易性を高める: Guardrails
Guardrails AIは、上記であげたLLMのハルシネーションに対する手段として、LLMアプリケーションの品質を定義し高めるための以下に代表されるオープンソースフレームワーク/ライブラリを提供しています。
- アプリケーションレベルのカスタムバリデーション*1を作成するフレームワーク
- プロンプト → 検証 → 再プロンプトのオーケストレーション
- 複数のユースケースに対応した一般的に使用されるバリデーターのライブラリ
- LLMへの要件を伝達するための言語の提供
*1 バリデーション:要件を満たしているかの妥当性を確認すること。それをアプリケーションごとにカスタマイズできること
これらのフレームワークやライブラリによって、これまで手動/独自でやらなければいけなかったLLMの出力結果の検証->チューニングのプロセスが効率化されます。
Guardrailsを利用することで、ユーザとのコミュニケーションでLLMに安心して回答生成を任せられないようなケースを事前にリストアップして検証・対策することができます。
例えば、「AIが自社や競合他社について聞かれても答えを返さないようにする」というルールを適用したい場合、GuardrailsがHubと呼ばれるプリセットの検証(バリデーター)モジュール群を用意してくれており、ここから競合チェックに特化した検証モジュール(Competitor Check)を適用します。これを用いて静的に競合会社の名前をリストアップしておくだけで、AIが競合に関して妙な答えをしないように制御できます。
Guardrails Hubの検証モジュールは、単純なルールベースのものから、モデルの問題を検出して軽減するアルゴリズムまで多岐にわたり、2024年2月現在、ハルシネーションやポリシー違反の検出から機密情報や安全でないコードのフィルターなど、約 50 種類が提供されています。このHubについては、オープンソースでかつ誰もが追加・修正できるようになっており、AIの安全性を高める施策がさらにコミュニティで自発的に作られることが期待されています。AIの安全性に対して似たようなツールを提供している会社はNvidiaやCalypoAIのように既に多く存在していますが、Guardrailsはオープンソース/クラウドソーシングのアプローチを取っているのがユニークです。
Guardrails AIはビジネスモデルは未だ確立されていませんが、2024年2月にZetta Venturesがリードし、Pear VC、Bloomberg Beta、GitHub Fundなどが参加する750万ドル(約10.5億円)の資金調達を行い、ユースケース・顧客拡大を図ろうとしています。
ディープフェイクへの対抗: Clarity
近年のディープフェイクは技術進化が進み、偽のポルノや捏造された画像/動画など、誤解を招くコンテンツが急増しています。アメリカ人の約66%が意図的に人を欺くために変更されたビデオや画像に遭遇しており、AI専門家のうち62%は、AIコンテンツ生成がニュースの信頼性と真実性を維持する上での最大の課題であると回答しています。
この問題への解決策として、2022年に創業したClarityは、AI操作されたメディアを特定する技術提供を目指しています。Clarityは、ビデオとオーディオの偽造性を特定するためのAIモデルをトレーニングし、アプリとAPIを通じて利用可能なスキャニングツールを提供しています。また、Clarityの利用クライアントが自分のコンテンツが正当であることを示すための正当性タグも追加することができます。
ディープフェイクを見破るソリューションについては、既に数多くの企業や組織が対策をとっているため、それぞれのソリューションの差異がわかりにくい状況となっています。また当然ながらウィルスとの戦いのように攻撃側と防御側でイタチゴッコの様相を見せており、ディープフェイクを見破るだけのソリューションではうまく機能しません。そのため本物であることの証明や追加のメタデータをいれるという方法も次々に考案され試されています。
Clarityはこうした次々に進むディープフェイクの爆発的増加に対してまだ準備を取れていないメディアパブリッシャー、身元確認を行う企業、政府機関といった特に信頼性が求められる企業をメインターゲットとしてサイバーセキュリティ企業として振る舞っています。Clarityは特異な技術で差別化するというより、アンチウィルスソフトのように最新のディープフェイクの手法をキャッチアップし、検出できるようにアップデートを続けるというアプローチとコンテンツの真偽を素早く/安全に行うための扱いやすいツール群で信頼を得ていると考えられます。
Clarityは2024年2月にWalden Catalyst Ventures と Bessemer Venture Partnersがリードする投資ラウンドで1,600万ドル(約23億円)を調達し、さらなる顧客拡大へ向けた動きを取ろうとしています。
おわりに
今回あげたAIの安全性を上げるためのテクノロジーやアプローチは、①自社でいかに安全にAIモデルを顧客へ展開できるか、②生成AIコンテンツが氾濫しても常に信頼性の高いメディアを提供し続けているけか の2つの観点で非常に重要になるものと考えます。
Guardrails AI、Clarity両社ともに、AIによるリスクへの対応において一定の役割を果たしており、生成AIの普及に伴い今後その重要性が増してくると考えられます。このようにAI関連だけでも考えること・やることはてんこ盛りの状況ですが、次の展開を先取りする戦略を練ることができるよう本連載がその一助になれますと幸いです。
更新はニュースレター(配信登録/アーカイブを読む)とソーシャルメディア(X・Twitter/Facebook)でお知らせしています。
Ximera Media Next Trends
次のメディアトレンドを知る
Ximera Media Next Trendsのトップページへ
株式会社キメラはメディア事業の設計・運営・データ分析を支援しています。デジタルビジネスの支援経験をもとに、メディア事業の運営にまつわる知見の発信もしています。