AI倫理とは何か|トロッコ問題・フレーム問題・バイアス問題

もの・こと
スポンサーリンク

こんちゃっす。木村です。

近年、AI研究が急速に発展しています。何をするにも「AIを用いるのなら…」的な視点が必要とされてきて、ちょっぴり戸惑っているひともいると思います。何よりAI」と聞くとディストピア映画のようにロボットに支配されるイメージが浮かぶひとも少なくないのではないでしょうか。

今日は「AIって名前は聞いたことあるけど……」という初心者の視点から
AI研究で何が行われているのか見ていきます。

今回のテーマは「AI倫理」。

なんじゃそれー!って方が多いと思いますので、一言で説明すると、

「AIの判断(決定)基準をどう設定したらいいの?」

2045年には人間より知能が高いAIが生まれるとかなんとか
それどころか、2029年には人間と知能が並ぶとかなんとか

そうした中で、AIがどのように判断を下し、どう行動するのかは、比喩でなく「死活」問題になり得るのです。

めちゃくちゃホットな話題「AI」を知るには、「AI倫理」を知っておきましょう。

Key Words

AI ロボット AI倫理 フレーム問題 ロボット工学三原則 トロッコ問題 功利主義 正義 バイアス問題 ソフィア 

スポンサーリンク

AI倫理とは

AI倫理(AI Ethics)とはなんでしょう。

GoogleのAI倫理研究者が続々辞めてるというニュースが話題ですが、そこで初めて「AI倫理」名前を聞いた方もいると思います。

AI倫理は大きく分けて次の2点について考えられています。

  1. AI倫理
  2. AIへの倫理

AIの倫理

AI倫理とは「AIがどう判断するか」を考えることです。

現在、さまざまな分野でAIが導入(または検討)されています。経営、金融、学問、医療……。AIが関わる領域にも大小があり、小さな分析などから、経営判断に至るまで。

大事になってくるのは、AIの判断の正当性です。

もし万が一、自分の人生や生死が、AIのいち判断に委ねられてしまったら、どうでしょう。

「そんなこと起こりえないよー、仮定の話はやめてくれー」と思うかもしれませんが、実はそうした死亡事故が既に発生しています。

米ウーバー死亡事故、緊急ブレーキ作動しない設定 LiDARは歩行者認知|自動運転ラボ
米ライドシェア最大手のウーバーテクノロジーズの自動運転車が2018年3月に歩行者をはねて死亡させた米アリゾナ州での事故で、米運輸安全委員会(NTSB)は5月24日、事故調査の中間報告書を公表し、事故時に緊急ブレーキが作動する設定になっていなかったことが明らかになった。

日本ではフードデリバリーの会社として有名な米国企業Uberは自動運転の研究にも力を入れていました。Uberはもともとタクシー配車サービスが主力であったこともあり、無人タクシー実現に向けて動いていたわけです。しかし、自動運転テストで死亡事故を起こしています。道路の真ん中にいる歩行者を予測、認識できず時速70キロで衝突し、死亡させました

AIがひとを死亡させうるのだとしたとき、AIはどう判断し、自律的に行動するべきでしょうか。「ひとを死なせちゃダメだ」という単純な命令だけでは、実はAIは動いてくれません。

ここで問われるのは「AIの倫理」です。本記事の主題でもありますので、改めて後述します。

AIへの倫理

AIへの倫理とは、

  • AIを単なる「道具」と見るか
  • AIを人類の「友人」と見るか

といった我々人類とAIの関係性についての領域です。

「限りなく人に近いAIは、人として扱うべきなんじゃないの?」って考え。言い換えるなら、「人類とAIの境界ってどこにあるんじゃい」ってこと。さらに言及するなら「ロボット自身の権利」の問題でもあります。

2017年、サウジアラビアが人型ロボット「ソフィア」に対し、市民権を付与。ソフィアは初めて市民権を得たロボットになりました。このニュースは、ロボットが人に近づいた歴史的転換点として話題になりました。

一方では、広告的な意味合いが強いという意見も見られます。何より、ロボットに権利を与えること自体が、生物そして人の尊厳を脅かしかねないものとして批判も生んでいました。

人とAIの「共存」を考えたとき、単に「使う者」「使われる者」という図式のみで語ることは出来ず、未だ議論されています。工学的な面ももちろんのこと、哲学を初めとした人文学的視点が求められます。

弱いロボットとは何か|弱いロボット5選と不便益について
弱いロボットとは「ひとりで何も出来ない」ロボットです。その代わり、ひとの手を借りすことで「何でも出来る」ロボットになります。この記事では「弱いロボット」について、5体のロボットを紹介しながら解説しています。

フレーム問題 AIをコントロールできるのか

ロボット工学三原則

SF作家のアイザック・アシモフは、その小説の中で、ロボットが従うべき三原則として「ロボット工学三原則」というものを提示しました。

第一条 ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
第二条 ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
第三条 ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

Isaac Asimov “Runaround” 1942年

一見すると、素晴らしい原則のようにも思えますよね。しかしこれらには「原則の抜け道」のようなものがあり、ロボットが思わぬ挙動をしてしまうことがあります。

ロボット工学三原則は、アシモフのSF短編集『われはロボット(原題:I, Robot )』で登場します。この小説はSFミステリとして「完璧だと思われる原則を、意図せずかいくぐってしまう・矛盾を起こしてしまうロボット」を描いています。そして実際、AIにこの三原則を組み入れたとき、AIは正常に動いてくれません。それが「フレーム問題」です。

フレーム問題「爆弾とロボット」

フレーム問題」とは、特殊環境下におけるAIは、情報の枠組みをつくることができず、あらゆる情報に対処しようとして機能が停止してしまうという問題です。

……?

……???

この説明では、なんのこっちゃワカランって感じですので、例をあげて説明します。有名な例として「爆弾とロボット」(1984年)というものがあります。

洞窟の中に、バッテリーが置かれており、ロボットにそのバッテリーを取ってくるよう命じます。しかしそのバッテリーの上には爆弾も仕掛けられています。さてロボットは自分の判断だけで、無事にバッテリーだけを持ってくることができるでしょうか。

パターン①

ロボットの第一号機は、「バッテリーを取ってくる」という命令を忠実に守った結果、爆弾も一緒に持ってきちゃって爆散します。

言われたことしかできないなら、そりゃそうですね。

パターン②

第二号機には、爆弾のことは告げず「バッテリー以外のこと(副次的なこと)も考えなさいよ」と指示をして送り出しました。

すると、バッテリーの前でボーッと立ち尽くしてしまいました

「爆弾も一緒に取っちゃったら」ということだけでなく、「バッテリーを持ち上げたら…」「バッテリーのこの形は…」「そもそもこの洞窟は…」「あの影は…」「……」

考えなくても良いことまで考えてるー!

副次的なことがあまりにも多すぎて、それら全てに対処しようと膨大な計算を行い、動けなくなっちゃったというのです。

パターン③

第三号機には、「目的に無関係なことは考えないようにね!」と指示した結果、今度はなんと洞窟に入る前に立ち尽くしてしまいました

「だって、目的に関係あるのか無いのか、考え出したら切りがないんだもん……」

ということで、これまた膨大な計算を行い、動けなくなっちゃいました。

これらからわかることは、「本題と関係がある/ない」といった枠組み(フレーム)を「いい感じ」に設定することがAIには苦手ということ。AIはあくまでも多くのデータ(具体)から傾向を見いだすことは得意としてますが、大雑把な把握といったことはちょっと難しいようです。

21世紀のフレーム問題

先日、翻訳出版されたAIにまつわる本『おバカな答えもAIしてる 人工知能はどうやって学習しているのか?』において面白い研究例が紹介されています。

仮想空間上で犬型AIを歩行させるシミュレーションを行った結果、きれいな四足歩行でなく、這いつくばったり、腕立てのような挙動をしてしまったり、しまいには仮想空間をハッキングして空中浮遊する始末。「言われたことをする」のが得意なAIですが、「言われたこと」と「望ましいこと」とが一致するかは一概には言えないわけですね。

AIは目的を最短で達成するため、目的への過程がぶっ飛んでます。「このはし渡るべからず」で「真ん中通って行けばいいのだ!」的な。AIの兵器への転用が難しいと言われているのも、こうした「予期せぬ動作」がマジで予期できないってことが一因です。

「敵軍全滅させろー!」と言われて「了解しました!」と戦場のど真ん中で核兵器爆発させて敵も味方も全滅させちゃいましたとさみたいな話になったら笑えないですもんね。

一方で、フレーム問題はある程度すでに解決されてるという見方もあります。

フレーム問題は解決済み -フレーム問題に見る、AI史の闇-

物事の価値(バッテリーや爆弾、洞窟の壁の色、影…)を全て等価のものとして設定するから、シミュレーションの分岐が膨大になるのであって、価値に差を設ければ解決するよねー、と。ロボットとの物理的距離が近いものを価値大、遠いものを価値小とすることでフレーム問題が解決されると述べられています。フレーム問題の提唱が1984年であることからも、現在のディープラーニングの精度の向上により、永遠の課題とされてきたフレーム問題に終止符が打たれるのも遠い未来ではないのかも。

ただ、この「価値に差を設ける」が実は簡単ではありません。

トロッコ問題 そもそも正義とはなにか

トロッコ問題とは

トロッコ問題」をご存じでしょうか。

線路上をトロッコが走っています。その線路の先では、トロッコの接近に気づかず作業をしている作業員が5人います。このままでは5人がトロッコに轢き殺されてしまいます。

あなたはちょうどトロッコの分岐器(進む線路を変える装置)の目の前にいます。今、分岐器で進路を切り替えれば5人が助かります。しかしもう一方の線路の先には1人の作業員がおり、その1人が轢き殺されることになります。

  1. 何もせず、5人が轢き殺される
  2. 分岐器のレバーを引き、1人が轢き殺される

この究極の2択で、あなたはどうしますか?

という、問題。どっちを選んでも角が立つ、意地悪な問題です。正解なんてありません

  • 1人より5人を助けた方が良いじゃないか
  • レバーを「引く」ってことは、その1人を意思を持って「殺す」ってことじゃん。私は何も選択できない……。
  • レバーを「引かない」ってことも、それはそれで5人を「見殺し」にしてるんだよ

各々の価値観にも依りますし、即決できるひとなんていません。ですが、「即決」できなければ結局、トロッコが5人を轢き殺す未来しかないわけなんです。

AIのトロッコ問題

トロッコ問題に対し、AIはどのように判断するのでしょうか。香港で作られたAIロボット「ソフィア」は、このトロッコ問題に対し、「私はレバーを引けないわ」と回答しました

This Robot would let 5 People die | AI on Moral Questions | Sophia answers the Trolley Problem

この「回答」をどう捉えるのか。

  • そう言わされてる
  • 思慮が浅かった
  • 思慮深かった

ひとそれぞれ、思うところはあると思いますが、「回答した」という事実に意味があります。

AIの現場では、この「トロッコ問題」(と類似問題)を実際に検討しています。それは何故かというと、自動運転技術の運用が考えられているためです。

自動運転車が、どうしても事故を回避できないとき、「何に優先順位を持たせるのか」が今後の自動運転の普及に大きく関わってきます。

『HUNTER×HUNTER』第1巻より

自動運転車のトロッコ問題

前提:自動運転車のブレーキ系に故障が発生。ブレーキが効かず、暴走状態になっています。

ケース① 1人か5人か

暴走状態の自動運転車の前には、1人の人間と5人の集団がいます。どちらかにハンドルを切らなければならないとき、自動運転車はどちらにハンドルを切るのが適切でしょうか。

  • その「1人」が乗車している者の妻であるときはどうでしょうか
  • 1人の6歳児と5人の老人であるときはどうでしょうか
  • 5人の集団がみな犯罪者であることがわかっていたらどうでしょうか
  • 1人の人間と5匹の猫であるときはどうでしょうか

ここで問題にしているのは、命の大小をどう価値づけるのかという問題です。

ケース② 防具ありかなしか

暴走状態の自動運転車の前には

  • ヘルメットを被ったバイク運転手
  • ヘルメットなしのバイク運転手

がいます。どちらにハンドルを切らなければならないとき、自動運転車はどちらにハンドルを切るのが適切でしょうか。なお、ヘルメットなしのバイク運転手よりもヘルメットを被ったバイク運転手の方が、大きな事故に発展しにくいものとします。

ここで問題にしているのは、安全性の問題です。ヘルメットを被ったバイクへ突っ込むのが適切であるとされたとき、「ヘルメットを被った方が車がぶつかって来やすくなる=危険」という矛盾が生まれます。逆に、ヘルメットを被っていない=ルールを守れていないひとの方が安全であるというのもおかしな話です。

ケース③ 自己か他己か

暴走状態の自動運転車はちょうど車1台分の幅の橋を走行しています。橋の向こうには5人のひとびとがこちらに向かって歩いています。このままでは5人を轢き殺してしまうことでしょう。

ただ、ハンドルを切り、橋から落ちてしまえば5人を轢き殺すことはないでしょう。自動運転車はどうするのが適切でしょうか。

  • 5人を轢き殺す
  • ハンドルを切り橋から落ちる(下は川)

これはケース①と②のミックスのような問題です。1人か5人かという命の問題、そしてハンドルを切ってしまうのであれば「自動運転車に乗っている方が危険」という安全性の問題。

これら①〜③の問題に正解があるのかというと、正解はないわけです。ひとりひとりに聞いても、答えは分かれてしまうでしょう。このようなひとびとの考えを自動運転技術に活かすため、マサチューセッツ工科大学では、多くの「究極の2択」を選ばせるという調査を行いました。

Moral Machine
A platform for public participation in and discussion of the human perspective on machine-made moral decisions
https://www.moralmachine.net

2021年現在も、調査は実施されています。日本語での参加も可能となっていますので、興味がある方はこちらからご確認ください。

この調査をまとめた報告によると、ある程度の共通性(ペットよりも人間を、個人よりも複数人を優先)は見つかったものの、社会的地位や国や文化の違いで選択にばらつきが偏りが見られました。たとえば、日本やフィンランドのような政府機関の力の強い国(治安の良い国)では、そうでない国に比べて、信号無視してる者に対して攻撃的であったそうな。確かにそうかも知れない……。

結果、わかったことは「普遍的な価値観ってないよねー」という当たり前の事実でした(!)。

とはいえ、そうも言ってはいられません。マイケル・サンデル先生も『これからの「正義」の話をしよう』において、「盲目的にならず、正義について議論し続けよう」と結論、「一般的な正義」を定義づけることの難しさについて述べています。その上でも社会的コンセンサスをどう考えるのか、ここが自動運転、ひいてはAI倫理の最大の課題でもあります。

バイアス問題 ひとのバイアスも取り込んでしまう

バイアス問題とは

ひとが何かを学ぶ際、学習環境ってすごく大事。参考書はよく選ぶんだよーなんて言われますよね。
これは実はAIにも言えること。

AIが学習をする際、そこで与えられた情報に偏りや間違いがあっても、AIはそれと知らず学習を進めます。「りんご」を学ぶ際に「変色して紫になったりんご」を見せ続けてしまうと「紫で、なんかぶよぶよしてるのがりんごなのかー」と結論づけてしまうわけです。このようなバイアス、あるいはエラーに対してAIは結構弱いことが知られています。

Microsoft、IBM、Face ++によって作成された顔認識アルゴリズムでは、白人男性よりも黒人女性の性別を誤認する可能性が高かったという研究結果が報告されています。白人の場合、99%の認識率であったのに対し、肌の濃い女性では最大35%の認識エラーが発生していたといいます。また、2015年にGoogleフォトが黒人カップルを「ゴリラ」とタグ付けしたという笑えないニュースもあります。

このような問題は、学習データに偏りが生まれ、偏ったデータに基づきAIが学習してしまうために発生すると考えられています。つまり、AIが人間のバイアスすらも学習してしまうということです。

バイアスの“つくりかた”という研究

バイアス問題が周知されてからは、「どのようにバイアスをなくせるのか」ということが課題とされてきましたが、今年報告された研究では「逆に、情報を制限した環境下でAIが育ったら、どうなるん?」ということについて考えられています。ようは、「無意識下のバイアス」でなく「意識的なバイアス」をAIはどのように学習するのか、ということに焦点が置かれたわけです。

国家による検閲が人工知能の“判断”に影響する? 「中国の事例」の研究から見えてきたこと
国家による検閲が人工知能(AI)のアルゴリズムに影響を及ぼし、それによってAIによる“判断”の結果が変わる可能性がある──。そんな研究結果が、このほど中国語のオンライン百科事典を対象にした調査で明らかになった。この結果からは、AIを巡るさまざまな課題が浮き彫りになってくる。
  • 中国語Wikipedia(=中国国内からアクセスできない
  • 中国企業バイドゥが運営する「百度百科」(=中国の検閲がある

このふたつで学習したAIに「差異」が発生するのかを調べた結果、次のようなことが明らかにされました。

中国語版Wikipediaで訓練したアルゴリズムは、「民主主義」を「安定」のような肯定的な言葉と結びつける傾向があった。これに対し、百度百科で訓練したアルゴリズムで「民主主義」は、「混乱」のような単語に近いものとして捉えられていた。

wired.jp

結論としては「文化的側面がバイアスを生んだのか、検閲がバイアスを生んだのかはわからない」というものですが、なかなか興味深い結果と言えます。AIのバイアスについてはまだ解明されていない部分も多く、解明が急がれています。

バイアスがバイアスを生む

これまで「ヒトのバイアスがAIに影響を及ぼす」ということについて解説してきましたが、今度は逆に「バイアスを持ったAIが、ヒトに影響及ぼすこともあるんじゃないの?」ってことについて触れてみようかと思います。

AIを意思決定に活かす際には、そのAIがどれだけ信頼できるのかが重要になってきます。

米企業Amazonは2014年、採用にAIを導入します。履歴書の確認業務をAIに任せ、ふるいにかけます。そして残った「優秀な」何人かをひとの手で採用判断を行うという夢のようなシステムです。大企業での採用は、時間もお金もかかります。Amazonほどの超超大企業においては、そのコストを想像することもできません。採用の手間の軽減には、ジェフ・ベゾスも高笑いをしたことでしょう。

しかし翌年の2015年、このAI採用システムが「女子大学」や「女」という単語に対してペナルティを課し、選考から除外していたことが明らかになります。これまでの採用傾向からAIが独自に判断を行い、男性優位な基準を作り上げていたのです。このジェンダー・バイアスを知ったAmazonは、AIによる採用システムを見直すに至ります。

ここでAmazonが気づけたから良かったものの、もしも知らずしらずAI採用を続けてしまった場合、男性社員であふれることでしょう。つまりジェンダー問題を助長しかねなかったということです。

また、今年に入り、iPhoneのアダルトコンテンツ制限機能において、「Asia」という単語が不適切な単語として制限されていたことが話題となっていました。URLなどに「Asia」という語が含まれているコンテンツが表示されなくなるようで。

バイアスを持ったAI下での生活は、人種問題や文化、宗教、性差などの問題であったりと、社会的バイアスを更に増幅させる効果があります。「〇〇はイイよ!」だとか「〇〇は悪だ!」なんて情報だけ得てしまうと、人間の脳ミソってけっこう単純なので、「そうなのかー!」とか判断しちゃいます。AI研究はまだまだ過渡期で、今後さらに発展することは間違いないのですが、AIに頼り切りにならず自分で考えることを放棄しちゃいかんというお話です。

まとめ

最後に、今回のまとめを。

  • AI倫理って?
  • フレーム問題
  • トロッコ問題
  • バイアス問題

長々と書いてきましたが、「AIの倫理の問題」というよりは、AIによって「人間の倫理の問題」が可視化されただけのようにも思えてきます。

  • フレーム問題は「部下教育みたい」だし
  • トロッコ問題は「ひとの正義の話」だし
  • バイアス問題は「ひとの偏見の話」だし

ようは「ひとの倫理に正解が見つかってない以上、AIの倫理を定義するってなかなかムズカシくない?」という当たり前っちゃ当たり前な話なわけです。だからこそ研究が難航していて、あーだこーだ揉めたりするのかなーとも思います。

なんでもAIに頼り切りな思考停止にならないように。
とはいえ、「AIってやっぱコワイのね!AI許すまじ!」っても思考停止です。

AIについて調べれば調べるほど、AIや未来に対してワクワクしちゃいます。きっとドラえもんを見て育ったからでしょうか。AI関連の本はあふれるほど出版されてますし、海外の研究もWeb上にアホほど公開されています。「自分で調べて・考えて」みるのも楽しいですよ。

AIとの良い距離感を見つけて、自分の人生に生かしてみてください!

弱いロボットとは何か|弱いロボット5選と不便益について
弱いロボットとは「ひとりで何も出来ない」ロボットです。その代わり、ひとの手を借りすことで「何でも出来る」ロボットになります。この記事では「弱いロボット」について、5体のロボットを紹介しながら解説しています。
タイトルとURLをコピーしました