Blog

2024.06.12

生成AIのプロモーション活用とネット炎上リスク対策

学習データを元にしてテキスト、画像、音声、そして動画を生み出す生成AIが様々な場面で活用されるようになりました。企業のプロモーションにおいても重要な役割を果たすことが予想されています。一方ですでに生成AIを利用したマーケティング活動でネット炎上事例も発生しています。便利な生成AIを活用する上でセットで注意したいリスク対策を解説します。

■生成AIの仕組みと活用シーン

「ChatGPT」などで知られる生成AI(Generative Artificial Intelligence)の登場は社会に大きな変化をもたらしています。その仕組みは膨大な量のデータを学習し、プロンプトと呼ばれる指示によって新たなコンテンツ(テキスト、画像、音声、動画など)を生成します。

企業のプロモーション活動においても様々な活用のアイデアが考えられます。特に生成AIはコストをかけずにクオリティの高いコンテンツを作成できることからWebプロモーションにおいて活躍するのではないでしょうか。

例えばSNSに投稿する文章を最適化して生成することができます。「20代女性向け」などのターゲット層に合わせたトーンや「TikTokらしい文章」などSNSの雰囲気に合わせることも可能になるでしょう。

特にSNSにおいてユーザーの生み出すコンテンツのクオリティは上昇しています。企業の公式アカウントもそのようなクオリティを求められる中で、生成AIによる画像や動画が有効になると考えられます。

一方で注目したいのは生成AIを利用する上でのリスクです。
生成AIによるコンテンツはどのような点に注意しなければならないのでしょうか。

■生成AI活用による権利侵害リスク

生成AI普及の一方で、「自分の絵を盗用された」などの権利侵害を訴える声が挙がっています。これは生成AIが著作物を学習データとして読み込み、指示に従って新たなコンテンツを生み出すため起こりうるリスクです。

例えば特定のイラストレーターの作品がある生成AIの学習データに含まれていたとします。そのイラストレーターの名前を出して、「〇〇のようなイラストを出して」と指示をします。すると当該イラストレーターが本当に描いたような新たな作品が生成AIによって出力されます。この作品はすでに存在する作品の複製ではありませんが、当該イラストレーターの特徴を真似ており、権利侵害のリスクが高いものです。

その他にも企業や製品、もしくはサービスのロゴの生成を指示した場合に他社の商標を侵害してしまうリスクがあります。実在しない人物を用いた実写の写真や動画を出力した場合に実在する人物に酷似していて肖像権を侵害してしまうおそれもあります。

以上のようなコンテンツが例えばSNS公式アカウントによる投稿などプロモーションとして発信されてしまった場合に権利者とのトラブルだけでなく、ブランドイメージへの深刻なダメージが予想されます。

生成AIは権利侵害については判断しません。他者の権利を侵害している可能性がないかについては人が判断する必要がありそうです。以下は権利侵害の有無をチェックする際のポイントの例です。

1.既存のイラスト、アニメーション、写真、動画と類似していないか。

2.著作権のあるキャラクターと類似するキャラクターが含まれていないか。

3.実在する人物(特に著名人)と似ている人物が含まれていないか。

4.既存の商標を侵害していないか。

5.既存のテキストと類似していないか。

これらの観点で検索やツールを用いて権利侵害の有無を判断することが求められます。また、社内で複数人によるチェックを行うことで誰かが問題に気づくことができるかもしれません。
また、そもそも「〇〇さんのようなイラスト」などの具体的な名前を出しての指示を避けることで権利侵害に注意したいところです。

企業の公式情報として発信する以上は、少しでも懸念があればストップするという判断も必要です。

■生成AIによる倫理的リスク

生成AIは倫理的に問題があるか?という観点でコンテンツを出力しません。中には暴力的、差別的なコンテンツなどを出力しないように制限をかけている生成AIもありますが、より複雑なリスクに対応するためにはやはり人間の判断だと考えられます。

以前に「弁護士」、「経営者」などの指示を出した結果、ある生成AIは白人男性の画像を生成したそうです。一方で「看護師」という指示に対して女性の画像を出力するなど、性別や人種に偏りが見られたと報じられています。

このような偏りについては常に改善されていると言われています。しかし倫理的な価値観も日々変化しているため企業にとってリスクにならないようなチェックは必要です。

1.差別や偏見を助長するようなコンテンツになっていないか。

例:特定の職業が特定の性別や人種に偏っている

2.違法行為、暴力行為などを想起させる内容になっていないか。

例:ナチスのモチーフ(鉤十字)がコンテンツ内に含まれている

3.コンテンツにより誤解を与える内容になっていないか。

例:実在しない生成画像が拡散したことで誤解を与える

消費者に誤解を与えないためには生成AIによるコンテンツであることを明示する必要性についても検討しなければなりません。

■生成AIそのものに対する否定的な反応

便利なツールとして注目の生成AIですが、その存在を否定的に感じている人も少なくありません。
前述のように著作権の侵害などの諸問題への解決策がないまま生成AIが普及していくことへの懸念があります。また生成AIに仕事を奪われるという危機意識が否定的な反応につながっていると考えられます。そのため生成AIを利用したコンテンツを企業が利用するだけでネガティブな反応を誘引するかもしれません。

海外では企業が自社製品のプロモーションに生成AIで出力された画像や動画などのコンテンツを用いたことが発覚してネット炎上の状態になった事例も報告されています。その背景には「クリエイターに対する敬意がない」という意見もあります。

それでは生成AIに関連したネット炎上を防ぐためにどのような対策ができるでしょうか。

1.生成AIの役割を明確にする

生成AIはあくまでも業務を効率化するツールです。生成AIによる出力内容を鵜呑みにするのではなく、人間が主体となって判断していることが重要です。プロモーション活動においても生成AIに「丸投げ」と見えてしまう場合に炎上のリスクが高まります。

2.コンテンツの制作過程を注視する

生成AIを利用していないから大丈夫とはなりません。外部の委託先が不適切な形で利用したことで炎上する可能性があります。また、生成AIによるフェイク画像に騙されてSNSで反応してしまうケースも炎上のリスクとして想定されます。

3.生成AIに対する世論をキャッチする

生成AIの登場以降、人々の受け止め方も変化しています。当初は懐疑的だった人々がその出力内容のクオリティに驚き、やがてそのリスクにも注目するようになりました。今後どのような印象を人々が持つのかという点をインターネット傾聴などにより把握しておく必要があります。

■まとめ

画期的なツールとして登場した生成AIですが、様々な活用方法が試される一方でそのリスクにも注目したいところです。
以前に比べて様々な職業に代替することが可能になりましたが、トラブルの火種を生み出してしまうリスクが存在します。あくまでもツールとして活用し、最終的には人が責任を持って判断することが求められます。

生成AIを一切使用しないというのは現実的ではありません。どのように利用すべきかというルールやガイドラインを社内で整備しながら今後の変化を追いかけていくべきかと考えられます。

Writer

この記事を書いた人

ライター

田中 裕一朗