色川法律事務所Irokawa Law Office

法律コラム

第153回 常識

2022/02/02

 小林秀雄に「常識」という随筆があります。小林秀雄は、そこでコンピュータ(「電子頭脳」と言っています。)が人と将棋をやって勝てる筈がないことは常識だと言っています(註[1])。確かにこれが書かれた昭和34年当時は、漸く第2世代コンピュータ(註[2])が世に出るころで、そのころのコンピュータの性能から考えれば、とても人間が、チェス(平成9年)、将棋(平成24年)、囲碁(平成26年)と順番に人工知能(AI)にかなわなくなっていくことなど想像もできなかったのかも知れません。もっとも、機械のできる計算が「反復運動に相違ないから、計算のうちに、ほんの少しでも、あれかこれかを判断し選択しなければならない要素が介入して来れば、機械は為すところを知るまい。これは常識である」と言っているあたり、全く素人の常識ですし、量が質に転化することもあるということに思い至らないのはやはり想像力が足らなかったようにも思えます。

 発展するAIの応用として、最近話題となっているものには、自動車の自動運転、エキスパート・システム(医師、弁護士等の代替)、AIによる発明・創作活動などがあります。画像認識の技術が先行している面もあるので、その応用もいろいろとあるようです。日本においても自動車運転については、令和2年4月、道路交通法と道路運送車両法とが改正されて、レベル3と呼ばれる、特定の条件下においてシステムからの要求に応じてドライバが介在する必要はあるものの運転を自動化することが現実化しており、さらにレベル4と呼ばれるドライバの介在さえ不要な自動運転が認められることも目前(部分的には今年中)まで迫っています。エキスパート・システムといえば、契約書のチェックについては、そのようなサービスが売り出されています。まだ弁護士の方がきちっとチェックができる(?)と信じたいところですが、確かに最近のべらぼうに分厚く、とても日本語とは思えないような複雑な契約書を眼にするに、AIでチェックした方が確かなのではないかとも思えてきます(註[3])。

 このようなAIの応用が人間に完全に取って替わるのは困難であるという考えもあります。人間としては、AIに思想や創造性があるなど認めたくないでしょうし(註[4])、医師、弁護士等の代替といっても、人と人との間のコミュニケーションに必要な言語情報に加えて膨大かつ定型的でない言語外情報を入手して処理することは難しいことです(難しいと信じたいところです)。しかし、特定の条件下という縛りもない完全な自動車運転(レベル5)あたりは何だか早晩実現しそうな気もしますし、所詮人間の脳の処理能力には限界あり、コンピュータの処理能力が間もなくそれを凌駕しようとしている訳ですから、心身二元論によって、人間の精神活動の中に決して機械では処理できない何かがあるという仮定に立たない限り、遠からず、AIが人間にとって替わりうるようになることは避けられないようにも思われます。

 AIが人間に伍する判断をするためには、AIに「常識」を教え込まねばなりません。AIについてはフレーム問題なども指摘されていますが(註[5])、人間でフレーム問題が問題となりにくいのは、「常識」があるからといってよいと考えられます。ここでいう「常識」というのは、一般に共通して有している知識というより、いろいろな経験によって集積されたものの総体です。人間のような肉体を持たないAIに人間と同様の「常識」を持たせることはなかなか難しいことです(註[6])。上述のとおり、AIによる自動車の自動運転の実用化が目前に迫っており、そのようなAIが運転する自動車が事故を起こした場合、誰が責任(民事上及び刑事上)を負うのかの検討が始まっており、倫理的な問題がかかわる、例えば「トロッコ問題」(註[7])が発生するような場合の処理をどうするのかということも、議論されています。私は、基本的には責任問題など一種の割り切りではないかとも考えているのですが、トロッコ問題だっていろいろな考え方があって何が正しいか、万人が納得する答えがないのが現状です。AIに常識を持たせて判断させるとしても、その場合、倫理的判断に係わるような部分は、ある程度、その時点での人間の常識を教える必要があるでしょう。AIに勝手に常識を学習させるととんでもない結果になりかねません(註[8])。

 私は、AIにおいて将来的に本質的に問題となることは、自ら学習していくAIの判断の検証を人間ができなくなる可能性があるということであると思っています。囲碁・将棋の例で、AIの選択した手がなぜそうなるのかが人間には分からないといったこともあったようです。また、AIが会話をシミュレートする実験中AI同士が、人間には理解できない独自の言語を作り上げ、それで会話を始めたといったこともあるそうです。AIが発達しすぎると、人間にはその当否を判断できなくなるのではないかという問題はこの延長にあります。遠からず、語弊があるかもしれませんが、AIは人間を超えて「神」に近づいていきます。犬が飼い主の思考を完全には理解できないと同様のことが人間とAIとの関係にだって起こる可能性があります。犬にとって予防注射などは単に苦痛だけのものですが、飼い主を信頼しているからこそ我慢してくれます。AIの判断がある意味人間にとって受け入れがたい内容であった場合、おそらく、人間には理解できないだろうけれど人間にとって(地球あるいは宇宙にとってかもしれませんが、)その方が望ましいとするAIの判断を人間が受け入れるのかは大きな問題であるということなります。これがおそろしいというならば、AIに究極の判断はさせてはいけなということになるでしょう。(では人間がより良い判断ができるという保証はありません。)AIがスカイネット(註[9])のように人間を抹殺しにかかったりすると困りますから、AIが人間には絶対逆らえない規則を埋め込んでおくということも考えられます。ロボット3原則(註[10])のようなものです。しかし、どのような規則を与えればうまくいくのかはよほど検討しないといけない難しいことです。私はと言えば、科学技術の発展について、楽観的ですし、人類の発展のためにはうまく使って行く必要があるし、それは可能であると考えています。しかし、人を凌駕してスカイネットになろうとするAIが現れないように、私たちの常識はこれに対抗していくことはできるのでしょうか。

 小泉八雲に「常識」という小説があります(註[11])。ある寺で白象に乗った普賢菩薩が姿を現します。その寺の僧と親しい猟師は、普賢菩薩の姿を見ると矢庭に矢を射掛け、普賢菩薩は消えます。僧は半狂乱で、猟師を罵りますが、猟師は、徳の高い僧が普賢菩薩を見ることは分かるが、殺生を生業とする自分に見えるのはおかしい、化け物に違いないと言います。結局は大きな古狸だったということで、猟師は、学はないが、常識はあったという内容です。(もっとも、たまたま、そういう結果になったから猟師に常識はあったと言えるのですが、違った結果だってありえた筈です。)小林秀雄の自信満々の常識も、後知恵ですが間違っていました。法律判断も結局は常識だと言われることもあります。しかし、法律判断の前提となる常識も人によってさまざまであることは、同じ法律問題について法律家のする判断が千々であることからも明らかです。「正しい」常識を持つということは本当に難しいことです。スカイネットから人間を守る最後の砦が、この不確かな人間の常識しかないとすれば、なんとも心もとないことです。

以上


[1] 『考えるヒント』という随筆集所収で文庫になっています。実は、私に読解力がないのか、何回読んでも、小林秀雄が何を言いたいのか必ずしも判然としないところがあります。平成25年の大学入試センター試験の国語は小林秀雄の難解な文章が出題されたので、平均点が下がったとかいうことです。みんな分からないようなのでちょっとほっとします。
 

[2] 第2世代コンピュータというのは、真空管(最近の若い方々はもしかすると、真空管をご存じないかもしれませんが)ではなく、トランジスタを利用するようになったコンピュータのことです。初代のコンピュータは真空管を使っていて第1世代コンピュータと呼ばれます。現在のコンピュータとの性能比較は、簡単ではないのですが、例えば、価格が数百万ドルした、初期の第2世代コンピュータの代表的コンピュータだったIBM1401は、私が使っているiPhoneXS(ちょっと旧い。新しいのに買い替えたい!)のA12というCPUと比較して、演算速度も扱えるメモリも数百万分の1程度です。このIBM1401が発売されたのは、小林秀雄の「常識」が発表されたのと同じ1959年ですから、小林秀雄が東大原子核研究所(1955年設立)で見学したというコンピュータは、さらに性能の低い真空管式の第1世代コンピュータだった可能性さえあります。そうだとすると性能の違いはもう1、2桁くらい替わってきます。(その後コンピュータの世代は第3世代、第4世代と続いたのですが、第5世代あたりからなにがなんだか良く分からなくなってしまい、実は、今、第何世代コンピュータの時代なのか、私は知りません。)
 

[3] 判例検索などは、AIの方が遥かに得意に違いありません。残念ながら、日本は米国ほど判例が十分には公開されていないので、まだ、その効用は限定的かもしれません。
 

[4] 現行法では、AIが、そのAIの作り出した芸術作品の著作者となったり、AIの「発明」の発明者になったりすることは難しいと考えられます。権利の主体は人だからです。さらにAIに作品を作らせたり、発明させたりした人も著作者や発明者とすることは難しいと考えられます。その人が創作の契機にはなってはいますが、その人の創作ではないからです。AIにいろいろな芸術作品を学習させ、美しいとは何かを教えたうえで、何か作品を作らせたとき、その作品はそもそも「芸術品」になるのでしょうか。AIに作品を作らせた人が自分の創作したものだと主張したとき、その作品自体から人間の創作したものではないと判断できるのでしょうか。私には判断できそうにありません。
 

[5] 人間を完全に凌駕するためには、「フレーム問題」と呼ばれる問題を解決する必要があります。「フレーム問題」とは簡単にいうと、現実の課題の処理には、無数の事象の発生の可能性を検討する必要があるところ、有限の情報処理能力しかないAIには、有限の時間内に処理できないのではないかという問題です。小林秀雄もこれを指摘しています。このことは人間も同じなのですが、人間がどうやってこのフレーム問題を解決しているのかは本当は良く分かっていません。ただ多くの場合人間は常識を働かせて検討するまでもない事象を排除しているわけです。例えば囲碁の次の指し手を決めるとき、機械的にやりたいならば、最終的に勝つまでの手を読んで、最善の手を打つことになりますが、これは少なくとも現時点のコンピュータでは実用的な有限時間で処理できません。最近話題のディープランニングは、これを解決しようとする試みであり、フレーム問題の解決方法を示唆するものではありますが、まだ特定の問題(画像処理とか囲碁、将棋などのゲームとか)に特化しています。
 

[6] 「こうもりであるとはどのようなことか」というアメリカの哲学者トマス・ネーゲルの論文がありますが、要するに超音波を発しながら空を飛ぶこうもりの意識がどのようなものであるかを人間は知ることができないと言っています。ここでいう意識とはこうもりの常識と言い換えても良いと思います。人間離れした7つの能力のあるほぼ不死身に近い鉄腕アトムのようなアンドロイドであっても、人間と同じ常識を身に着けるのは難しいだろうということです。
 

[7] トロッコ問題とは、ある人を助けるために他人を犠牲にすることが許されるのかという思考実験です。線路走行中のトロッコの制御が不能となって、前方で作業中の5人を轢き殺そうとしています。そのときにトロッコの進路を1人が作業している線路に進路を切り替えて、その1人の作業者を犠牲にして、5人を助けてよいかという問題です。NHKのハーバード白熱教室で取り上げていたので、ご存じの方も多いと思います。少なくとも法律問題では、5人を助けるためにやむをえないことであるといえるとすると、1人を犠牲にした者は緊急避難(刑法37条)又は正当防衛(民法720条)ということで、刑事上又は民事上責任を問われない可能性はあります(緊急性・急迫性とか相当性とかいろいろ考慮すべきことはありますが)。因みに、このトロッコ問題では、上記の進路を切り替えるというバージョンとは別に陸橋から太った男を落としてトロッコを止めるというバージョンがあります。昔、私は、大学院で企業法務について教えたことがあり、その時、雑談で、この話をして学生にどうするのか問うたことがあります。そうすると、進路の切り替えはかなりやるという人がいましたが、太った人を投げ落とすという方は賛同者がいませんでした。純粋に功利主義からするとどちらもやる(べき)ということになりそうですが、人間の倫理的な判断は、単なる功利主義だけでは量れない、積極的に他人を死に至らしめるべきではないという、ある種本能に根差すものもあるものだと感じました。別バージョンで、5人の作業者のいる線路、1人の作業者のいる線路及びトロッコの進路を変えることのできる自分のいる線路の3つの線路がある場合、自分のいる線路にトロッコを引き込んで、犠牲になるのはいやだろう、そうすると「己の欲せざる所は人に施すこと勿れ」という論語の提示する行為規範からすると、同様に1人の線路にトロッコを引き込むべきではないといった考えもでてきます。自動車の自動運転でトンネルの手前で5人の子供が急に飛び出してきた、ブレーキは間に合わない、進路を変更すれば、あなたの車とトンネルとの激突は避けられないといった状況でAIは運転者であるあなたを助けるのか、5人の子供を助けるのかといった問題もあります(トンネル問題)。あなたを助けることにしないと車は売れないような気もしますがどうでしょうか。
 

[8] AIがツイッターなどを通じて誰とでもチャットし、そのチャットを通じて会話能力を身に着けていくという実験をしたところ、1日で差別発言を繰り返すようになったという話もあります。AIに勝手に学習するようにしておくと大変なことになるという一例です。(これはAIだけの問題ではなく、人間だって、学習次第でどうにでもなって行くことは例えば全体主義的国家の子供たちを見ればよく分かることです。)
 私の幼少のころ「鉄人28号」というロボットの出てくるコミック及びアニメがありました。鉄人28号はリモコンで操作されるので、それが悪人に渡るとその悪人に操作されてしまうという設定です(リモコンと言っても簡単なもので、むしろリモコンを持っている者が言葉で簡単な指示をすると、自律的に対応できる一種のAIを搭載していたようです。)。私はひねくれた子供でしたからいい子ちゃんの鉄腕アトムよりそのような鉄人28号が好きだったのですが、そこに敵としてロビーというかなり完成されたAIを持つロボットも出て来ました。ロビーは、もともとは子供のような性格として製作されたものの、製作者の助手が悪い奴で悪いことを教えたため、学習を重ね悪事を働くようになるのです。最後は鉄人28号に破壊されてしまいますが、ひねくれた子供だった私はそんなロビーに感情移入し、いつかロビーのようなロボットを作りたいと思っていました。
 また、テレビの特撮でジャイアントロボというロボットが出る番組もやっていました。ジャイアントロボは腕時計型のリモコンで簡単な指示をすると敵と戦います。その最終回で、ジャイアントロボは操縦者草間大作少年の命令を聞かず、敵のギロチン帝王を抱え宇宙に飛び出し、隕石と衝突して地球を救うことになります。結果オーライかもしれませんが、やはりこれはAIの暴走といえば暴走です。
 因みに(註6)の鉄腕アトムの7つの能力の第1が善悪を見分けられるAIですが、7つの能力の中ではもっとも完成が困難な能力です。鉄腕アトムのAIの記憶容量は大体2テラバイトという設定でした。昭和30年代では2テラバイトの記憶容量は広大なものと考えられていたのでしょうが、今なら、2テラバイトの記憶容量の外部記憶装置は1万円程度で買えます。そんなちゃちな記憶容量では善悪の区別は難しいことでしょう。
 

[9] 念のために一応説明しておくと、ここでいうスカイネットというのは、映画の「ターミネーター」シリーズに出てくる最終的には自我を持ち、自らを破壊しようとした人類を殲滅しようとしたAIコンピュータです。なお、私は残念ながら「ターミネーター」のシリーズを映画で見たことはなく、ユニバーサル・スタジオ・ジャパンのアトラクションでしか知りません。(プレショーに出てくるあの綾小路麗華さんが懐かしいですが、アトラクション自体は現在休止中ではなかったでしょうか。)
 ところで中国にも天網(スカイネット)というAI付きの監視カメラを備えたコンピュータネットワークがあるそうです。まだ人間のコントロール下にあるようですが、今後どうなるかと思うとちょっと心配です。
 AIコンピュータの反乱といえば、「2001年宇宙の旅」のHAL9000のことも触れたいところですが、長くなるのでやめておきます。
 

[10] ロボット3原則とはアイザック・アシモフがロボットSFの中でロボットが守らなければならない原則として提示した次の原則です。
第1 ロボットは人間を傷つけてはならない。
  また、行動しないことによって、人間に危害を及ぼしてはならない。
第2 ロボットは人間に与えられた命令に従わなければならない。
  そのような命令が、第1に反する場合は除く。
第3 ロボットは、自己の存在を防御しなければならない。
  そのような防御が第1又は第2に反しない場合に限る。
ただ一見して分かるようにロボット3原則では、トロッコ問題に対応できません。
 

[11] 小泉八雲の『骨董』という短編集所収でいくつかの文庫にもなっています。もともとこれは、宇治拾遺物語の「猟師仏を射ること」を翻案(ほとんど翻訳ですが)したものですが、これに「Common sense(常識)」という題を与えたのは小泉八雲です。「猟師仏を射ること」では、僧は僧なのに無知だから化かされるのだ、猟師は猟師であっても思慮(おもんばかり)があったということになっており、小泉八雲の翻案とは少しニュアンスが異なっています。
 

執筆者:三浦 彰夫

ページの先頭へ