この記事は「AI活用時代の危機管理広報シリーズ」の一部です。AI活用に潜むリスクとその回避法を、文章作成の観点から整理しています。
▼AI活用時代の危機管理広報シリーズ
- 第0回:AI活用に潜むリスクとは何か
- 第1回:AIに任せすぎるリスク
- 第2回:表現・印象のリスク
- 第3回:AIでやってはいけないNG操作(この記事)
なぜ「使い方」が問題になるのか
AIは便利なツールですが、使い方を誤ると、
単なるミスでは済まされない、重大な問題につながるおそれがあります。
意図的でなくても、不適切な使い方によって
・情報漏えい
・誤情報の発信
・信頼の毀損
といった影響が生じる可能性があります。
やってはいけないNG操作
ここでは、実務で起こりやすいNGを整理します。
① 個人情報を入力する
- 氏名
- 住所
- 電話番号
- 特定できる情報
AIに入力した情報は、
完全に管理できるとは限りません。
取り扱いを誤ると
重大な情報漏えいにつながる可能性があります。
② 未公開情報を入力する
- 発表前の施策
- 内部資料
- 検討中の方針
これも同様に
外部に漏れるリスクがあると考えましょう。
また
・情報が整理・要約される過程で
・文脈が再構成され
本来の意図と異なる形で扱われる可能性もあります。
その結果
意図しない情報公開につながるリスクが起きてしまいます。
③ 出力結果をそのまま使う
AIの文章をそのまま使うと、
- 誤情報が混ざる
- 文脈がズレる
- 意図と異なる表現になる
といった問題が生じることがあります。
これまでにも何度か書きましたが、
一見問題のない文章に見えたとしても、
事実関係や前提が検証されているとは限りません。
さらに
「整っているために疑われにくい」
ここにリスクが潜んでいます。
④ 出典を確認しない
AIは情報を要約・生成しますが、
出典が明確でない場合があります。
そのまま使用すると、
誤った情報を公式に発信するリスクがあります。
特に広報においては、
・正確性
・再現性
・説明責任
が求められるため
出典が確認できない情報は
裏付けのない情報であり、本来発信できない類のものです。
⑤ 判断をAIに委ねる
- この内容で問題ないか
- このタイミングで出すべきか
こうした判断は
本来、人が行うべきもの
AIに委ねると
責任の所在が曖昧になるのは当然です。
NG操作を防ぐための基本ルール
●入力する情報を選ぶ
「外に出ても問題ないか」で判断する
●必ず人が確認する
内容・表現・タイミング・ニュアンスをチェックする
●出典を確認する
情報源を記録しておく
●最終判断は人が行う
AIはアシスタント、人が責任者と考える
まとめ
AIは便利なツールですが、
使い方によっては大きなリスクにもなります。
危機管理広報の視点では、
「何をしてはいけないか」を明確にしておくこと
が重要です。
リスクコミュニケーションの見地に立てば
自治体広報におけるAI活用とは
時短化や発信内容そのもの以上に
リスクを制御できている状態が重要です。
AI活用とはまさに、リスクと向き合うことでもあるわけですね。
以上、ここまでAI活用に潜むリスクとその回避法を、文章作成の観点から整理しました。
4回にわたってお付き合いくださいありがとうございました。
木空きがあれば、自治体・医療・教育など、分野ごとに異なるリスクについても整理してみたいと考えています。
