立即博游戏平台_立即博赌场-备用网址

图片

图片

立即博游戏平台_立即博赌场-备用网址

 
成城彩論
seijo salon

現代社会の変化と法律学のチャレンジ

町村 泰貴 教授
法学部 法律学科
専門分野:民事法学

AIに法的人格を認める話

 AI(人工知能)も、法律学に多大な影響を及ぼすのではないかと、世界中で注目を浴びているテーマです。

 もっとも、AI=人工知能と聞くと、すぐに、人間と同じような知的能力を身につけたロボットが、鉄腕アトムのように活躍する姿を想像するかもしれません。AIによって人間の仕事はなくなるといわれたり、いわば超人類として人間を支配するようになるとか、フランケンシュタインの作り出したモンスターのように人間を襲い始めるとか、そんなファンタジーが世の中には溢れています。とりわけハリウッド映画は、ターミネーターのスカイネットのように人間に牙をむくコンピュータというテーマが好きですね。

 これに対して法律家は、基本的に文系人間ですから、機械的なことや技術的なことには疎い人が多いです。従って、技術者から「こんな未来が実現するかもしれません」と言われると、それを真に受けてしまう傾向があります。AIが人間と同じような判断能力をもつ知的存在になると言われれば、人間と同じような法的人格を認めるべきではないか、権利能力や責任能力を認めるべきではないか、仮に認めたらどうなるかといったことは、かなり真顔で議論されています。しかし、人間と同じような能力をAIに法的に認めようというのは全くの妄想でしょう。

 確かに、将棋や囲碁のような限られたルールの中の勝負では、機械学習、あるいはディープラーニングによりプログラマーの予期しない能力をAI自らが獲得し、人間を凌駕する能力を発揮できるレベルになっています。その応用可能性も幅広いものがあります。また自動運転の世界では、人間のコントロールがないところで自律的に行動を選択する機械が一部実用化されてもいます。

 それでも、AIが判断することは限られた条件の中に限られます。AIに法的人格を認めようという話になるのは、まだまだ遠い先の話なのでしょう。

差別するAIの問題

 AI技術の発達が法律学にとって重要な問題となるのは、大量のデータを収集し、機械学習?深層学習を経て、当面の問題へ適合的な解答を出す能力が法律実務にとって利用されやすく、しかもブラックボックスになりやすいところにあります。

 AIの判断機能が現実に用いられている例としては、人事評価システムがあります。採用判断にせよ社内人事の判断にせよ、過去の人事評価とその結果のデータからAI自身が作成した一定の判断基準により、対象人材の適性とか将来性とかを評価して答えを出します。この場合採用担当者や人事評価担当者は、そのようなシステムを採用した時点で、そのシステムの出す答に反対する材料は持てませんから、AIの言いなりということになるかもしれません。そのこと自体も一応は問題ですが、より深刻な問題は、機械自身が作成した判断基準に何らかの歪みが入り込んでいる可能性です。

 かつてマイクロソフトがツイッター上のチャットボットとして公開したAIシステムが、人種差別的な発言を繰り返すようになったとして、あわてて引っ込めたということがありました。ツイッターの書き込みをビッグデータとして学習すれば、その書き込みの中に現れる偏見とか、あるいはジェンダーバイアスとか、そういった歪みがAIの判断に組み込まれる可能性があります。その結果、ひどく人格的に歪んだような書き込みをするチャットボットが誕生したわけです。採用人事システムの例でも、アマゾンがAIによる人材採用システムを運用したところ、女性に対して差別的な選考をする傾向が現れ、ついにそのシステムの使用を諦めたということもありました。幹部社員に女性の割合が少なければ、女性は幹部社員となる能力が乏しいと判断され、女性には不利な判定結果となりやすいことは