バイデン米政権は21日、人工知能(AI)の安全性と透明性を高めるため、開発段階から外部の専門家の検証を入れるなどの対策をとることで米IT企業の7社と合意したと発表した。人間のように文章などをつくる対話型AI「ChatGPT(チャットGPT)」が普及し、誤情報の拡散などの懸念が世界的に高まるなか、米政府としてもAIのリスク管理を強化する構え。大統領令の発出も検討している。
対策をとるのは、チャットGPTを運営する米新興企業オープンAIをはじめ、マイクロソフト(MS)、グーグル、メタ(旧フェイスブック)、アマゾンなど7社。
7社が合意した主な内容は、AIの開発段階での外部の専門家による安全性の検証▽自社製AIの「欠点」や使うべきでないケースの広報▽AIが生み出しうる偏見や差別を回避し、個人情報保護に向けた研究を優先する――など。
世界的に利用が広がるチャットGPTをめぐっては、インターネット上での誤情報の拡散や人権侵害の事例が報告されている。米政府高官は「AIから生成された映像や音声に、そのコンテンツがAIにより作り出されたものかどうかが利用者に分かるしくみを導入してもらう」と話す。
米国では技術革新を損ないか…