「AI倫理」が世界の認識をアップデートする。青山学院大学 准教授 河島 茂生氏インタビュー。
見出し画像

「AI倫理」が世界の認識をアップデートする。青山学院大学 准教授 河島 茂生氏インタビュー。

「AI倫理」には、アルゴリズムやデータの問題などテック的な問題に加え、哲学や宗教、歴史から生まれた思想など、非常に繊細かつ広範にわたる問題が集約している。青山学院大学 准教授 河島 茂生氏に「AI倫理」の導入として非常にわかりやすくお話しいただいた。AI倫理を知り、ポジティブな未来を描くためにも、ぜひ一読いただきたいインタビューだ。

画像1

河島 茂生 / 青山学院大学准教授、理化学研究所革新知能統合研究センター客員研究員、青山学院大学革新技術と社会共創研究所所長など。慶應義塾大学総合政策学部卒業。東京大学大学院学際情報学府博士後期課程修了。博士(学際情報学)。主な著書として、『未来技術の倫理』(勁草書房、2020)、『AI時代の「自律性」』(編著、勁草書房、2019)、『AI倫理』(共著、中央公論新社、 2019)、『AI × クリエイティビティ』(共著、高陵社書店、2019)、『情報倫理の挑戦』(共編著、学文社、2015)、『基礎情報学のヴァイアビリティ』(共編著、東京大学出版会、2014)、『デジタルの際』(編著、聖学院大学出版会、2014)などがある。


メディア研究・情報倫理研究の一環としてAI倫理を。

-河島先生のキャリアについて簡単にお聞きしてもいいですか?

河島:ずっとメディア研究を専門にしてきています。メディア研究は学際的で、それまでの学問の枠にキレイにおさまりきらないことが面白かったですね。メディア(テクノロジー)と人間の心や社会との関係について研究していくなかでも、特にインターネットでのコミュニケーションを対象として研究していました。

-メディア研究の道を歩むきっかけは?

河島:学生だった90年代当時、インターネットが急速に普及しはじめたんですね。対面ではあったことのない人同士が、ネットを媒介にして新しい形のコミュニケーションをはじめたことが非常に興味深かったんです。大学院を出た後、いわゆるネット上の「炎上」が社会的に注目を集め、これを専門的に研究しました。ネットの変容とともに社会問題が次々と起きたことで、現在の「情報倫理」に研究をシフトしました

画像2

-現在も日夜「炎上」的な事件は起き続けていますよね。

河島:えぇ(苦笑)。当時、様々なネットの炎上事例についてテキストマイニングしていたんですが、最終的にはどのような書き込みがあったのかを自分でも読んで確認していました。その作業を続け毎日、書き込みを読んでいると、自分自身が精神的に辛くなっていったのが本当のところです。そこで、社会問題を分析するだけでなく未来に向けた提案を行うために「倫理」という観点から研究を掘り下げることにしました。倫理は、個人の心の持ち方と勘違いされがちですが、あるいは偉そうに説教することと同じように思われがちですが、もともとは「習わし・習慣」という意味があります。「倫理」を考えることで情報環境を少しでもプラスにしていきたいと考えたんですね。その情報倫理の一環として人工知能倫理(AI倫理)も研究しはじめました。

-なるほど。

河島:私の研究は、AIと生き物との共通点と違いをみるところから議論しているのが特徴ですね。ヨーロッパを中心とした議論ですと、「人は人、機械は機械」と分けてから議論するのがベースとなっていることが多いんですが、これだけAIが発展してくると両者の違いがわかりにくい面がでてきます。知能を作りたい、生命を作りたいと思っている人もたくさんいるわけですし。そのため、「AIと生き物との違いは何か」「なぜ機械には責任を負わせられないのか?」といったところから議論する必要性を感じて専門的に研究しています

画像3

そもそもAI倫理はなぜ生まれたか?

-倫理の中でも「AI倫理」と切り分けられるのは、どうしてなんですか?

河島:ひとつに「AI」という言葉それ自体に魅力があり注目されているというのは正直あるでしょう。それに加えて、これまでのコンピュータープログラミングと、最近の機械学習とではシステム構築方法が大きく異なることがあります。いわゆるディープラーニング以降、ガバナンスが非常に難しくなったことで注目が集まっているのではないかと思いますね。

-具体的には、どのように変わったのですか?

河島:今までは、ソフトウェアを作るためには、人間があらかじめモデルを作って膨大なコードを書かなければならなかったんですね。バグはあるものの、ソフトウェアは基本的にモデルに沿って書かれたコードに基づいて動きます。一方、ディープラーニング以降のAIの構築は、全ての動きをコードで書き下すわけではありません。エンジニアは初期値の設定なども行ったりコードもある程度は書いたりしますが、それでもAIの動きは読み込むデータによって変わってきます。そのため、エンジニアや開発チームでもこれまで以上にソフトウェアの動きが予測しづらくなったんです。結果的にガバナンスが難しいという問題が生まれてしまいました

-誰も作ったシステムへの責任が取りきれないということですか?

河島:「責任」という言葉はいろいろな意味がありますがそこには触れないでおくと、問題が起きたときにどこに「責任」があるかというのは、歴史的に解釈してもかなり揺れの多いことなんです。基本的に、問題が起きた後に議論を積み重ねて結論づけられていきます。たとえば中世ヨーロッパでの「動物裁判」ってありましたよね?

-あ、人に噛み付いた犬を裁判で懲役にかけたりするっていう…今ではちょっと考えられないような裁判ですよね。

河島:そうです。豚とかネズミを裁判にかけていたという。今では信じられないかもしれませんが、人間以外にも責任があるという考え方は歴史的にあるわけです。そのため、私の意見とは異なりますが、AIそのものに責任を負わせることを主張する人もいます。責任の所在は、常に揺れているものなんです。様々なご意見あると思いますが、ようはAIにおいても、そう簡単に責任の所在を明確にできるものではないんです。

画像5

-起きた問題への対応は簡単ではないと。

河島:そうですね、そのため、サービスを提供する相手など(ステークホルダー)にとって本当に価値をもたらすことができるのか、サービスを実施した理由をきちんと根拠をもって公に説明できるのか、エラーに対する事後判断を適正に下せるのかといったことを前もって考えて開発することが望ましいと思います。

-なるほど。どのようなことを守っておくことが望ましいでしょうか。

河島:もちろんケースバイケースで議論のなかで揺れがありますが、最低限守らなければならないのは、「AIのせいにしない」「エンジニア個人のせいにするのはよくない」ということですね。ひとつの企業ですら責任を負えるものでないケースもあります。AIにおけるエラーは、アクシデント事例を協力してリストアップするなど組織横断的に解決を図ることが必要になってくる面があるでしょう。事故が起こった責任をある程度分散して報告しあってエラーから学べる体制を作ることが必要ではないかと思っていますね。

-とはいえ、システムを作って利益を出していたりすると、責任も伴いますよね。

河島:もちろんです。組織横断的なガバナンスよりも前に、それぞれの企業ができうるかぎりのガバナンスを行うことがもっとも重要です。ミスをした人のみを非難して、そのミスを誘発した組織のありかたをそのまま温存させるのはよくありません。GAFAなど巨大企業にも倫理的な姿勢が求められています。たとえばEUでは新たな著作権指令が出され、プラットフォーム事業者がコンテンツによって莫大な利益を得ている一方、クリエイターには適切な対価が支払われていないことを是正する動きがありました。こうした動きも倫理的な問題がベースになっていたりします。

画像4

世界でのAI倫理進捗。

-現状では、世界的にはAI倫理ってどれほど進んでいるんですか?

河島:実は、大枠での議論はかなり進んでいて、AI倫理指針や提言などは世界で100以上は作られています企業も、ここ2年くらいで急速かつ戦略的にAI倫理のガイドラインを作り、委員会を設置してアセスメントシートなどを整備してきていますAIサービスを設計する段階から工程ごとに倫理的な配慮を念頭におくようになってきているのはポジティブなことではないかと思います。私自身も企業から相談を受けることも多くなってきていますね。

-かなり日常のすぐそばまで来ていますね。

河島:AIって思ったより日常のあちこちですでに実装されていますし、皆さんも使っているんですが、どこに使われているのか知らない人も多いんですよね。身近なところでは、スマホのカメラの顔認証もAIが使われているんですが、未だにこれをAIと認識していない人も多い。SNSに代表されるプラットフォーム上でもコンテンツ選定にAIが使われていることも意外と知らなかったりします。AIはもう日常的に使われていて、それによって私たちの行動が変わっている部分もあると知ってもらうことが、AI倫理に興味をもってもらうスタートではないかと思います。

-あぁなんかAIって聞くと自動的にロボットみたいなものが一瞬、浮かんでしまいます(笑)。

河島:(笑)。未来の話ではなく、現在進行形でAI倫理に関する議論が活性化する必要があると思うんです。インターネットから情報を取ってくると罵詈雑言だらけのAIができたりします。これは、ある意味ではインターネットのコンテンツから反映される結果で、あまりよいことと思えないんです。

-確かに。

河島:私が学生だった1990年代は、インターネットにすごく期待がありました。夢が抱かれましたよね。誰もが発信できて公平な議論を行う新しい民主主義が生まれるのではないかとすら言われました。しかし現状のインターネットは、うけねらいや金儲け、注目を浴びたいだけのコンテンツも多く、捏造もあり、建設的な議論が生まれにくいのではないかと思いますAIに関しては、倫理という観点をいち早く取り入れはじめることで、差別や嘘、派手なコンテンツばかりを再生産しないようにする必要があると考えています。AIも放っておくとインターネットと同様の、あるいはそれ以上の状態が生まれてしまう可能性もありますから。子どもたちが安心してAIを使えるようにしていきたいですね。

画像6

技術こそが、倫理を生み出してきた。

-AI倫理は、テックからのアプローチに加えて歴史的に人類が構築してきた倫理や哲学、宗教など、かなり広範な視点から議論をしないといけないのかなと思います。

河島:その通りです。非常に広い範囲の知が要求されます。具体的に身近に感じてもらえる有名な事例として、サーチエンジンで「社長」と画像検索すると男性の写真ばかりがずらりと並びます。社会的に権威があるといわれるポジションに男性ばかりいることが可視化されることで、「何かがおかしいぞ」と理解できるんです。しかしこのとき、これまでの社会構造を知らないと、社長には男性がふさわしいと勘違いしかねません。広い範囲の知が必要というのは、たとえばこのようなことです。

-技術があってこそ、倫理的な問題に気がつけるということもありますか?

河島:今までなんとなくまかり通っていたものを「データ」化し、AIに読み込ませて可視化すると、なんとなく感じていた問題が顕在化する場合があります。これは、AIにかぎった話ではなく、人間は歴史的に見ても新しい技術が生まれることで、倫理的な問題に気づいてきました。たとえば、医療の世界を考えてみます。出生前の胎児の検査や臓器移植などは、私たちに倫理の問題を突きつけますよね。「いのち」とはなんだろうかと。技術のアップグレードによって倫理的な問題が起きたり、これまで気づきにくかったことに真摯に向かう必要性が出てきたりします。今まさにAIの高度化がめざましいため、様々な倫理的な問題が生まれているんですね。

-確かに。新しい技術あればこそ新しい倫理を考えていく必要があるんですね。

河島:そもそもメディア研究においては、人間とテクノロジーは敵対するものではありません。テクノロジーは「身体の拡張である」と定義されます。人間は、今まで知り得なかったものを知るために、できなかったことをできるようにするためにテクノロジーを生み出しているとすら言えます。テクノロジーというと、最近になって生まれたと考えている人もいますが、人間が最初に生み出したテクノロジーは「話し言葉」だという研究者もいます

-あぁそういうアナログなコミュニケーションもテクノロジーなんですね。

河島:「書き言葉」によっても私たちの思考は相当に変わったと思いますし、印刷技術によって産業革命が準備されたとも言われますよね。学問や音楽、アートの世界ですら、テクノロジーによってダイナミックに変容してきました。いつの時代も、テクノロジーとともに私たちや社会が変わってきたと言えます。身体拡張であるテクノロジー(メディア)を媒介して、私たちは現実の捉え方を変えてきたわけです。個々人の現実の捉え方が変わることで、これまでの倫理を捉え直し、アップデートすることが可能になるんですね。

-それが今まさにAIというテクノロジーで巻き起こっているということですね。

河島:AIをどのように活かしていくか、どのように社会をポジティブにしていくかということを考えるためにも「AI倫理」について考え、議論することが望まれていると思います。

画像7

気がつきにくい差別とフェアネスの構築。

-アルゴリズムにおける差別の問題をお聞きしたいのですが、こういった問題はどのように解決するべきとお考えですか?

河島:資本主義のシステムにも起因していると思いますが、社会はマジョリティ(特権をもった人々)をよりマジョリティにしやすい面があります。放っておくとマジョリティがマジョリティを生み出します。架空の例ですが、AIを使った音声認識技術を使って説明します。音声認識技術としてみると、使っている人が多い標準語の音声認識の精度を上げることになりますよね。そのほうが音声認識技術を使ってもらえる。しかしそのことで、話し手が少ない「方言」ですとか「土着の言語」は音声認識の精度が上がらず使用頻度も下がり、さらにマイノリティになる。もちろん、個人で言語を選択できる自由はあります。しかし標準語以外を選ぶことが、音声認識技術を使ううえでは不便になりストレスを感じることにもなる。つまり、選択肢があっても選択肢を選びにくい状況を生み出してしまいます。マジョリティはどんどんと「得」な状況になるんですね。意識しないと、言語の多様性を奪いかねないことにつながってしまいます。

-そういった差別は、便利を自然に選んでいると気がつきにくいですよね。

河島:「あたり前」や「常識」と思っていることに潜んでいる格差や差別には気がつきにくいです。私自身もそうです。ビーチバレーや体操などのスポーツで女性がビキニパンツやレオタードを着用しますよね。小さい頃からテレビでみていて違和感がなく「あたり前」のように思ってしまっていたので、嫌がっている選手がいるなんて考えもしなかったんですよね。それらのスポーツをやっている知り合いがいなかったこともあるでしょうが、言われてみると「確かにこんな格好する必要ないな」とはじめて気がつくわけです。日常レベルでも、今の常識にとらわれて気がついていない差別というのは、非常にたくさんあるんですね。このような無自覚な差別をなくすためにも、どうしても「声」を上げてもらうことが必要になってきます。一般にもよく言われる「多様性」というのは、こういった声の先にこそ生まれるものだと思います。困っている人の「声」をAIを使って把握しやすいようにしていけるといいですね。

-実際の解決方法については、どのように考えておられますか?

河島:私は、場作りがキーではないかと思いますねAI倫理の議論の場においても、ジェンダー比率を調整することや、先進国だけでなく開発途上国のメンバーを加えるなど、考えうるかぎりの多様なメンバーを揃えて議論することが望ましいと思っています。様々な角度から声を上げてもらえることで、はじめて問題に気がつき、倫理のアップデートにつながると考えています。

-そういった先にフェアなAI倫理が達成できるということですね。

河島:えぇ。現状、完全なるフェアネスを達成することは、なかなか難しいのも実情です。先ほどもお話しした音声認識もやはりマジョリティの言語の開発を優先せざるを得ません。特にビジネスとして考えると、そうせざるを得ないですし、精度を高めるという意味では多くの人が話す言語に絞った方が構築もスピーディです。ただ、企業や団体はステートメントとして公平性についてきちんと説明することが望まれているのではないかと思います。きちんと表明しないと、どうしてもマジョリティへの目線だけで進んでいるように感じられてしまいますからね。

-思いを伝えることが重要なんですね。

画像8

AIができること。私たちが考えるべきこと。

-今更なんですが、AIってどんなことができると捉えるのが正しいのでしょうか?

河島:AIと聞くと無条件に怖がる人もいます。ここで、現在のAIが難しいことを3つお話しすると、AIがいかにこれからの私たちの生活を支えてくれるかをご理解いただけるかと。1つ目は、「自分で自分で作れない」ことです。AIは、エンジニアやデータサイエンティストがいないと作られないんですね。メンテナンスもできません。人間のように内部で細胞をどんどん作り1個の受精卵から血液細胞や骨細胞、神経細胞に分かれていく生物的な変化はありません。人であれば、病気の場合は医師による介入がありますが、最初から腕や目、歯をくっつけたりはしませんよね。栄養を摂取すると内部から作られていきます。一方、コンピューターに電源をつないでもCPUやメモリが自動で内部から作られたりしません。人が機械を使って外部から作っています。なので、AIがうまく動くためには、人間が伴走していることが条件になっています。ですから、よく言われる「AIの暴走による人間の支配」ということは現状考えにくい。

-ちょっと安心しました(笑)。

河島:2つ目は「意味が理解できない」点です。AIというのは、統計的な正解を出すことはできますが、あくまでデータを元にした形式的な処理でしかありません。椅子を例に説明する人がいます。AIは「椅子」を分類しますが、ちょっとした段差を「椅子」とは分類しない。でも、人にとっては疲れているとき、ちょっとした段差が「椅子」になります。場合によっては歩道と車道の間にある柵も腰をかける「椅子」になります。

-あぁそもそも「疲れる」とかっていう意味も理解できませんもんね。

河島:3つ目は、先ほど述べた2つのことと絡みますが、「社会全体のなかで何をするべきかを考えられない」ことです。AIを設計するには、膨大なデータから、目的に沿ってデータを限定しないと動かないわけです。人間が目的を設定してどのようにデータを収集するか判断しなければならない。AIなどのテクノロジーを使って何をしたいのか。それを考えるのは、意味を理解する私たちです。

-社会全体を考えるのは人間の役割だと。

河島:そうです。テクノロジーを使って認知を拡大しながら、私たちがどのような未来にしたいかをビジョンとして描くことがAIと共存している時代において非常に重要なことだと思います。これからは、ますますAIを使った機械ですとかロボットが身近になってきますが、生命を大事にするという軸こそが大事だと考えています。人がいてはじめてAIが作られます。逆ではありません。

-なるほど。

河島:今後、政府主導のムーンショット型研究開発制度などで新しい未来像は次々に出てきます。たとえば、ソーシャルロボットが根付き出した頃にはまた倫理ももう一段階、アップデートされなければならないと思いますし、これから次々と革新的な技術が作られると思いますが、倫理の土台は、生き物を大事にすることでしかないかなと思います。生き物は、一回性の時を生きます。環境の認知に関しても、人それぞれ全く違う世界で生きています。こういった、個別の違いこそを大切にしなければならないのではないでしょうか。そこから価値観の多様性も生まれてくると思います。

画像9

これからの世界で失いたくないもの。

-では最後に、これからの世界で失われてほしくないものを教えてください。

河島:生き物への尊敬ですね。AI・ロボットの開発者にも生き物をリスペクトしている人はたくさんいます。誰かとの一期一会の出会いというのは、このインタビューにしてもそうですし、何よりも大事にしたいことだと思います。
生き物への尊敬を失わないことが、AI倫理を構築する基本としてもすごく重要なことだと思います。


画像10

Less is More.

ここ最近、ますますの混迷を極めるネット上の議論を見ていても、もやもやとした気持ちがある方も多いと思う。河島氏の話す「インターネットでの失敗を再生産しない」ためにもAIを倫理の観点から、いち早く議論していくことは、私たちにとってとても重要なことのように思う。

(おわり)

画像11




公式Twitterでは、最新情報をはじめ、イベント情報などを発信しています。ぜひフォローお願いいたします。

ありがとうございます。これからもどうぞよろしくお願いいたします。
「Less is More. 」は株式会社インフォマートが運営する、グローバル化・デジタル化する世界で失われる/失いたくないモノ・サービス・概念などを幅広く取り上げ、未来を再創造するためのメディアです。https://www.infomart.co.jp/