AI時代と向き合う

調べごとをする。手紙を下書きする。文書を翻訳する。

「問い」を発すれば、画面の向こうに誰かがいるかのように、なめらかな言葉で「答え」が返る。そんな生成Al(人工知能)が、暮らしや仕事に急速に浸透している。

新卒採用面接に生成AIを導入する企業がある。AIの質問に学生がオンラインで答える。学生は時間や場所に制約されずに受験でき、企業側には評価のばらつきを抑えられるメリットがあるという。

東京都は5月、生成AIを活用した学習を都立学校で始めた。都のガイドラインは「新しい視点や発想をもたらす手段として使用する」としている。生徒が正答を求める使い方に偏れば、思考力が育たない弊害が指摘される。

政治のいとなみに用いる動きも始まっている。AIがSNSやネット上の「声」を収集、可視化し、意思決定に役立てるブロードリスニングは、先の参院選で複数の政党が公約作りなどに導入した。

利便に潜む落とし穴

生活や社会を便利にする新技術は、まだ途上だ。

何より留意すべきは、学習と生成の過程がブラックボックスで検証が難しいことだ。

AIは中立ではない。どんなデータをAIに学習させるか。どうアルゴリズム(計算手順)を組むか。決める者次第で導き出される「正解」が偏る可能性がある。

また、もっともらしく誤った回答をするハルシネーション(幻覚)と呼ばれる現象は解消されていない。AIが人に代わって様々な作業をこなす技術が発展すれば、雇用のあり方も変わるだろう。

本物と見分けがつかない偽の画像や音声の量産も可能だ。SNSが世論形成に大きな影響力を持つ今、懸念されるのが偽情報が投票行動に影響を与え、民主主義を脅かす事態だ。2023年の中欧スロバキアの総選挙では、投票日直前に候禰者の偽音声がSNSで出回った。国外の勢力による世論操作への警戒も必要だろう。

中国のようにAIを統制下に置く国がある。技術の進化でAIへの人間の制御が利きにくくなるリスクも意識する必要がある。

AIが学習するデータをつくった個人や団体をどう守るかも、課題だ。

今春、AIで写真をジブリアニメ風のイラストにした投稿がSNSにあふれた。誰もが一目でわかる絵のスタイルはスタジオジブリの財産のように映る。だが、作品のキャラクターに酷似したイラストでなければ著作権法違反には当たらない。

日本新聞協会は記事をAIの学習に使う際は許諾を得るよう求めているが、無断利用する事業者がいる。深刻な被害が続くならば、時代に合った法整備は欠かせない。

規制をめぐり温度差

民主主義や法の支配を堅守しなから、AIを活用するにはどうすべきか。その答えを出すべく世界で初めて包括的な法規制に乗り出したのが、欧州連合(EU)だ。リスクを高低に応じて4分類し、違反者に巨額の制裁金を科すAI法が昨年成立した。

潜在意識に訴えたり、年齢や経済状況など弱みにつけこんだりする技術をEU規制は禁じる。個人の自由意思が操作されないようにして人権を守る手法は参考に値する。

対照的に、巨大IT企業を抱える米国は、トランプ政権下で「規制」から「推進」に変化している。

日本で今年成立した法律は利活用を進める。政府は、規制法ではなく推進法との立場をとる。

安全性の確保の面からは、犯罪への悪用行為や、バイアスのかかったデータを学習させて不適切な出力をする行為など重大な問題が起きれば国が事業者を調査でき、事業者は調査に協力義務を負う。だが、協力しなくても罰則はなく、実効性には疑問がある。

「限界」理解し活用を

一人ひとりの市民がAIの利点と限界を慎重に吟味して使いこなすことが肝心だ。

北海道東神楽町は昨年、町内の若者と生成AIが「協力」して、2050年の町のあるべき姿を探った。「人口減・高齢化が深刻になる」 「公共バスは不便」と若者側が提起。AIと「対話」して、「バス停の居心地を良くして町民の交流スペースにする」との提言に練り上げた。

人間のアイデアを発展させる。未来の世代など意思決定の場にいない人の意見を「代弁」してくれる。そんなAIの強みは発揮された。一方で限界も。「言語化が難しい現場の雰囲気をふまえだ回答がAIは苦手」と、東神楽町の取り組みを企画したシンクタンク研究員の竹中勇寅さん。

「民主主義とは、自分と異なる意見と出会い、『考え直し』を経て、納得へと至る熟議のプロセス。手っ取り早く『正解』を見つけることではない」と、東京大学の谷口将紀教授(政治学)はいう。

リスクや限界を理解する。回答をうのみにせず、「異見」として議論に生かす。AIとの「協業」は、人間主導を貫きたい。


2025/7/28 朝日新聞 社説より