人間のように自然に応答する「ChatGPT(チャットGPT)」を代表として、急速に進化して社会への影響力を増す「生成AI」に対し、私たちはどう向き合えばいいのでしょうか。AIと人権の問題に詳しい慶応大の山本龍彦教授(憲法学)に聞きました。
――30日閉幕したG7デジタル・技術相会合では生成AIが主要議題となり、リスク評価の国際基準の作成検討などで合意しました
「生成AIの加速度的な発展によって、リベラルデモクラシーという近代以降の価値秩序がゆらぐ可能性があるなか、基本的な価値を共有する国々で目線を合わせることは重要です。民主主義といった共有価値の維持をG7で合意できたことは意義があると思います」
――生成AIの登場によって新たに懸念されるリスクや論点はどこにあるのでしょうか
「これまで社会に実装されてきたAIは、プライバシーや差別といった個人の人権にかかわる問題が中心でした。中国のセサミクレジット(ゴマ信用)のような、個人データをもとに利用者の社会的信用力を数値化するスコアリングや、就活学生の内定辞退率を算出していたリクナビ事件などは、個人の評価にAIが使われていた。その意味で、AIの憲法問題は主に個人レベルのものだったと言えるでしょう」
「それに対して、人間が作ったかのような文書を作成できる生成AIには、また違ったリスクがあると思います。政府は行政業務での利用を検討しており、国会答弁への活用に言及した大臣もいました。こうした利活用は全面禁止されるべきではないと思いますが、適切な『ガードレール』を設けないと、議員はAIが下書きした法律案を追認するだけの存在になる。この場合、国の意思決定プロセスに大きな影響が及ぶため、民主主義や統治のあり方に関する国家レベルの問題になってきます。人間が主で、AIはあくまでもその意思決定をサポート・支援するという主従関係が、ともすると逆転してしまう可能性があります」
人間が守るべき価値は何か
――追認するだけであっても、最後の意思決定は人間が行ったと言えるのではないですか
「生成AIが出した結論をベ…
- 【視点】
政府は意思決定や国民への説明をAIに頼るほど説明責任が果たせなくなるのではという山本さんのご指摘、政治記者として重く受け止めます。 閣僚は記者会見や国会答弁で官僚の作った原稿を棒読みすることがありますが、AIがそれを学習すれば無味乾燥な
…続きを読む