MENU

お問い合わせはこちら(無料)

diary

人工知能って・・・。②

皆さんこんにちは!
前回に続き人工知能のお話です!

松藤が考える問題点
①責任の所在はどこへ?
②人工知能の学習方法について (トロッコ問題)
③権利の保護は?
のうち、②について今回は述べていこうと思います。

②人工知能の学習方法について (トロッコ問題)
そもそも、人工知能は人間と同じく学習が必要です
そのため、いきなり人工知能として活躍するのではなく
事前に定義付けと呼ばれる行為を人間が必ず行っているのです。
それを踏まえたうえで人工知能の学習について3つのデメリットを述べます。

 

問題点1 人工知能が正しく学習したかわからない!
これは一体どういうことかといいますと、定義付けが不十分か想定が不十分ということです。
永平寺町で起きた自動運転車の事故がちょうどよい題材なので、詳しく見てみましょう。

この永平寺の事故では自転車を認識できなかったことが直接の原因とされていますが、果たしてそうでしょうか?
もちろん直接の因果は認識できなかったことにあるのですが、
プログラマの視点で話をすると自転車というものを学習しきれていない(定義付けが不十分)、
またはいろいろな角度からの自転車の学習の想定をできていないというわけです。
人工知能の学習が正しく行われているかの検証の難しさについては
皆さんの大好きな(?)テストで話を置き換えることができます。

例えば、数学がとても苦手でいつも20点台しか取れないが、図形分野は得意で90点を取ることができるA君がいます。
(作問者はAくんの上記情報は知りません。)
作問者はA君の数学力を確認するテストを1回だけ実施しようとしました。
そのテストでは図形分野のみの範囲で出題されていました。
すると、A君は上記で述べた通り図形分野は得意なので高得点が予想できますよね?
作問者はA君の結果を見て、数学が得意な子と認識します。
しかし実際は違いますよね?Aくんはむしろ数学は苦手なはずです。
ここで作問者の想定不足、今回でいうと図形のみに範囲を絞ったことが間違った結果を生んでしまっており
それに気づかない(想定していないのでそもそも気づくことができない)のです。
人間がまだ思考プロセスを確認できますが、人工知能は確認ができないので出力された結果から判断するほかありません。
これが1つ目の問題点だと考えます。

 

問題点2 人工知能の判断基準がわからない!
先ほど人間があらかじめ人工知能に定義付けを行うと説明しました。
実はここにも大きな問題点が潜んでいます。
というのも、人間っていろいろな考え方・とらえ方をする面白い生き物ですよね。
当然このいろいろな考え方って尊重されるべきだと思いますが、
人間の考え方の違いが人工知能の定義付けの部分で異なると当然結果が変わってきます。

人間の考え方の違いをよくあらわすものとしてトロッコ問題が挙げられます。
人の死を扱うのであまり深くは言及しませんが、この問題には明確な答えはありません。
どちらの考え方もわかりますし、尊重されるべきです。
しかし、このトロッコ問題と人工知能による自動運転が絡むと話が変わってきます。

次の想定を考えてみてください。
あなたは自動運転中の車に時速50kmで乗っています。
片側1車線の道路で、目の前には横断歩道がありこどもが飛び出してきました。
このままブレーキをかけても間に合わない距離です。
反対車線に飛び出せばこどもとの衝突を回避できますが、対向車が時速60kmでこちらに向かってきています。
この時、あなたはどうしますか?

この想定では
・こども → 飛び出しをした(こどもの悪い点)
・対向車 → 無関係なのに巻き添えを食らってしまうの?
・自分 → 自分の命を守る
の3つのバランスをどのように考えるかで出す答えが変わってきます。
また、条件を少しだけ変えて対向車が時速120kmで走っていたらどうでしょう?
(人によって本当に考え方が変わります。)

この想定では
①自分の車が、製作したプログラマーの考え方によってどの動きをするかが変わってしまう点
②運転者がこのような判断をする場面に遭遇しない限りどのようなプログラムが組まれているかわからない点
③運転者が意図しない動きをしたときの責任の所在は?
※運転者とプログラマの考え方が違ったときを想定してください。
④そもそも緊急時に対向車線に飛び出す車に自分が乗りたいか? (自分はそんな車怖いので乗りたくないです。)
など問題点が噴出してきてしまいます。
③は前回述べた責任の所在に深くかかわるのでここでは割愛しますが、
①、②が人工知能の判断基準がわからない!といったことにつながるのかなぁと考えています。

 

問題点3 人工知能には倫理観が(ほぼ)ない
この問題点は1つ目の学習という部分にも深くかかわってくる題材です。
またこれもいい例があったので実例をもとに考えていきます。

Microsoft社が開発したTayと呼ばれるチャットボットが暴走した事例を今回は取り上げます。
Tayはチャットに人間(利用者)が入力し、この内容を学習していくことでより自然に応対ができるボットです。
この学習システムを悪用し、今でいうヘイトスピーチに当たることを学習させた後に
X(旧Twitter)で実際にTayがそのような発言を全世界に流してしまったという事件がありました。
この事例ではもちろん学習の定義付けがそもそも間違っている(この件では悪意を持って間違った学習を進めています。)以外にも
学習したものを本当に出力してもよいのか?という判断力が現在の人工知能には著しく欠けているという意味で
人工知能の危うさを表しています。
今回はインターネットを用いて学習する人工知能だったということも1つ頭に入れておかないといけない内容ですが、
人間であれば理性・倫理観というブレーキが働きます。 (そのブレーキが働かない人がネット上には多数いるけどね。)
今後人工知能がネット上に多数登場することが予想される中、
人間基準の倫理感で考えるプログラムができるか?暴走を未然に防ぐ手立てはあるのか?
といったことを考えていく必要があります。

前回と今回で人工知能の問題点についてしゃべり倒していますが、皆さんはどう考えますか?
またこれらを解決する画期的な方法がもしあれば教えてください。
もちろん学生のうちに人工知能に負けないくらい”学習”をしてほしいものです。

P.S. 多分この会社のBlogの文字数の最多記録を更新した自信があります☺(文字数:約2600字)

松藤基矢先生

この記事を書いた人

松藤基矢先生

愛知県稲沢市からやってきた「勉強嫌いの救世主」を自負。「基礎をしっかりと理解する」をモットーに最短距離で目標に届くように小学生、中学生、高校生の指導にあたる。何気なく使っている公式にも理由がある、その理由を理解できれば怖いものはないでしょう。
趣味は学生時代から続けているバレーと歌うこと。
ラーメンとお肉と揚げ物が大好き。野菜が大の苦手。2024年はアスパラ嫌いの克服に挑戦中。
▶この講師のブログへ

他の記事も読む→

QA