昨日(5月27日)、デジタル庁が「行政の進化と革新のための生成AIの調達・利活用に係るガイドライン」を策定しました。このガイドラインは、単なる技術導入の手引きではなく、AIを通じて行政そのものを進化させる試みの土台となるもので、結構今後重要になってくるものだと思います。

本ガイドラインは、政府における生成 AI の調達・利活用において、「人間中心の AI 社会原則」の実現を目指し、生成 AI の利活用促進のためのガードレールを定めることで、政府による生成 AI の安心・安全な利活用を推進することを目的としていますね。
生成AIの適用範囲と除外条件
対象となるのは、テキスト生成を担う大規模言語モデル(LLM)を含む政府情報システム。ただし、特定秘密や安全保障、経済安保情報を扱うシステムは除外されます。また、画像や動画を生成するAIについては、今後の検討対象とされています。
利活用の基本方針――「高リスク」も排除しない
注目すべきは、リスクを理由に利活用を封じるのではなく、「適切な対策を講じた上で、高リスク領域でも果敢に取り組む」という姿勢です。
高リスクの判定は、以下の4軸で評価されます:
- 利用者の範囲(府省庁内か外か)
- 利用業務の性格(人命や権利への影響度)
- 機密情報・個人情報の扱い有無
- 出力結果への職員の関与の有無
このうち、1つでも「国民向けサービス」や「人命に関わる判断」などの項目に該当すれば、先進的AI利活用アドバイザリーボードへの報告義務が生じます。
AI統括責任者(CAIO)の設置と相談体制
各府省庁にはAI統括責任者(CAIO)を新設。生成AIに関するガバナンス構築、リスク管理、リテラシー向上の司令塔となる役割を担います。
さらに、デジタル庁は「AI相談窓口」を設置し、現場の相談に即応。制度的にも現場レベルでも支援体制が整えられつつあります。
想定される便益とリスク
ガイドラインでは、生成AI導入の効果を明確に列挙しています。例えば:
- 議事録の要約やあいさつ文の生成
- 政策アイデアのブレインストーミング
- 文書分析や過去事例の検索支援
一方、リスクも網羅的に示されています。
- ハルシネーション(誤情報の出力)
- バイアスや差別的な表現
- 個人情報や知財の漏洩リスク
- AI出力への過度な依存による判断力低下
これらを軽視すれば、社会的信用の失墜や法的リスクを招く恐れがあるため、リスク対応策もガイドラインに詳細に記されています。
まとめ:生成AIと行政の未来をどう描くか
今回のデジタル庁による生成AIガイドライン策定は、テクノロジー導入のルール整備だけではなく、むしろ「行政の進化と革新」という大きな目標に向けた礎であり、ガバナンス、リスク管理、そして現場運用までを含む包括的な設計となっているように感じます。
民間企業であれば、生成AIの導入は競争力強化の手段ですが、行政においては「公共性」と「透明性」が伴います。
だからこそ、今回のガイドラインが掲げる「人間中心のAI社会原則」や、CAIO設置・アドバイザリーボード運用といった体制整備が、行政にとっても必要不可欠なのです。
私たち議員としても、この新たな枠組みを行政の生産性向上だけでなく、市民サービスの質の向上、そして何より住民の信頼確保のためにどう活かしていくか、不断に問われることになるでしょう。
地方自治体においても、今後も市民の視点から、このガイドラインの運用と現場への落とし込みをしっかり見守り、必要な提案を行ってまいります。