人工知能は人間を超えるか

4か月ほど前にこちらの本を読んだので、軽くまとめ

人工知能とは何か?
世間の見方
– 入力(人間の五感に相当する「センサー」により観測した周囲の環境や状況)に応じて、出力(運動器官に相当する「アクチュエーター」による動作)が変わる

レベル1:単純な制御プログラム
レベル2:古典的な人工知能
– 入力と出力を関連付ける方法が洗練されたもの
レベル3:機械学習を取り入れた人工知能
– 機械学習と言うのは、サンプルとなるデータを下に、ルールや知識を自ら学習するもの
レベル4ーdeep learningを取り入れた人工知能
– 機械学習をする際のデータを表すために使われる変数(特徴量と呼ばれる)自体を学習するもの

AI_boom
第1次:推論探索の時代
第2次:知識の時代
第3次:機械学習と特徴量表現学習の時代

AI_history

第1次AIブーム:推論・探索

探索木
深さ優先探索
– とにかく行けるところまで掘り下げてみて、ダメなら次の枝葉に移る
– 必ずしも最短の解を最初に見つけるわけではない
– ダメなら一歩戻って次の枝に進めばいい→メモリはそれほど必要なし

幅優先探索
– 同じ階層を虱潰しに当たってから次の階層に進む
– ゴールまで最短距離でたどり着く解がかならず見つかる
– 途中のノードを全部記憶しておかなければならない→メモリがたくさん必要

プランニング
– ロボットの行動計画で使用される技術
– STRIPS:前提条件と行動と結果という3津の組み合わせで記述する

ミニマックス法
– 将棋、チェス、オセロなどで使われる手法
– 自分は自分の点数を最大化する手を指し、相手はこちらの点数を最小化する手を指すことで成り立つと仮定して最善手を選択する
– 詰めに至る最終局面ではPCはまずミスしないので、中盤をいかに戦うかが、将棋ソフトとの対戦では重要になる
minimax

モンテカルロ法
– ある局面まで来たら、コマの数や位置関係によって点数をつけることを放棄。交互に完全にランダムに手を出し続け、とにかく終局させ、どちらが勝つかをシュミレーションして勝率で盤面を評価


第2次AIブーム:知識

MYCIN
– スタンフォード大学で開発されたプログラム
– 伝染性の血液疾患の患者を診断し、抗生物質を処方するようにデザイン
– 500のルールが用意されて入れ、質問に順番に答えていくと、感染した細菌を特定し、それに合った抗生物質を処方
mycin

オントロジー研究
– 哲学用語で、「存在論」のこと
– 知識を記述すること自体に対する研究→PCに適切に知識を記述させることは難しい

light weight ontology
– コンピューターにデータを読み込ませて自動で概念間の関係性を見つけさせる

ワトソン
– 質問の意味を理解して答えているわけではなく、質問に含まれるキーワードと関連しそうな答えを、高速に引っ張り出しているだけ
watson

フレーム問題
– あるタスクを実行するのに「関連ある知識だけを取り出してそれを使う」という、人間なら当たり前にやっている作業がいかに難しいかを表す問題

symbol grounding問題
– コンピューターは、記号の「意味」がわかっていないので、記号をその意味するものと結びつける事ができない
– 身体性:外界と相互作用できる身体がないと概念性は捉えきれない


第3次AIブーム:機械学習・ディープラーニング

機械学習
– 人工知能のプログラム自身が学習する仕組み
– 人間にとっての「認識」や「判断」は、基本的に「イエス・ノー問題」として捉えられる。
– 学習=分けること=イエス・ノー問題の精度、正解率を上げること
– 機械学習の精度を上げるのは、どんな特徴量を入れるかにかかっているのに、それは人間が頭を使って考えるしかなかった点が機械学習の最大の関門

①教師あり学習
– 入力と正しい出力(分け方)がセットになった訓練データをあらかじめ用意して、ある入力が与えられたた時に、正しい出力ができるようにコンピューターに学習させる

②教師なし学習
– 入力用のデータのみを与え、データに内在する構造をつかむ
– データの中にある一定のパターンやルールを抽出することが目的

分け方
最近傍法
– 一番近い隣を使う
– 一番近いデータのカテゴリが当てはまる確率が高いはずだという仮説に基づく

ナイーブベイズ法
– データの特徴ごとにどのカテゴリに当てはめるのかを足しあわせていく
– 迷惑メールを分離するスパムフィルター:1つ1つのキーワードがどのくらい「迷惑メール度合いを持つか」だけを数値としてもっておけばいい

決定木
– ある属性がある値に入っているかどうかで線引きする

サポートベクターマシン(SVM)
– マージン(余白)を最大にするように分ける
– 大きなデータを対象とした時には、計算に時間がかかってしまう

ニューラルネットワーク
– 人間の脳神経回路を真似することによって分ける
– 人間の脳は、あるニューロンは他のニューロンと繋がったシナプスから電気刺激を受け取り、その電気が一定以上たまると発火して、次のニューロンに電気刺激を伝える。
– 一連の流れの中で肝となるのは重み付けで、人間のニューロンが学習によってシナプスの結合強度を変化させるように、学習する仮定で重み付けを変化させ、最適な値を出力するように調整することで、精度を高める
nerural_network

誤差逆伝播
– 答え合わせをして間違えるたびに重み付けの調整を繰り返して、認識の精度を上げていく学習法
– 全体の誤差(間違う確率)が少なくなるように微分を取って微調整を加える

ディープラーニング
– データをもとに、コンピューターが自ら特徴量を作り出す。
– 人間が特徴量を設計するのではなく、コンピューターが自ら高次の特徴量を獲得し、それをもとに画像を分類できるようになる。
– 他の機械学習と異なる点
– 1層ずつ階層ごとに学習していく
– 自己符号化器という「情報圧縮機」を用いること
– 相関のあるものをひとまとまりにすることで特徴量を取り出し、さらにそれを用いて高次の特徴量を取り出す。そうした高次の特徴量を使って表される概念を取り出す。
– 「ちょっと違ったかもしれない過去」のデータをたくさん作り、それを使って学習することで、「絶対に間違いではない」特徴量を見つけ出す
deep_learning
deep_learning2

シンギュラリティ
– 人工知能が自分の能力を超える人工知能を自ら生み出せるようになる時点
– 「人間=知能+生命」であるから、知能を作ることが出来たとしても、生命を作ることは非常に難しい。

今後の社会変化
– 人工知能が人間を征服するといった滑稽な話ではなく、社会システムの中で人間に付随して組み込まれていた学習や判断を、世界中の必要なところに分散して設置できることで、よりよい社会システムを作ることが出来る。
ai_future

オックスフォード大学の論文で提示された、職業リスト

短期的(5年以内):急激な変化なし
中期的(5-15年)
– 生産管理やデザイン部分で、人間の仕事が変わる
– 異常検知というタスクは、高次の特徴量を生成できる特徴表現学習の得意とするところ→基本的にセンサー+人工知能で代替可能

長期的(15年以上先)→人間の仕事として重要なものは大きく2つに分かれる

・経営者:非常に大局的でサンプル数の少ない、難しい判断を伴う業務
– 何度も繰り返されることではないため、データが無く判断困難
・人間に接するインターフェースは人間のほうがいいという理由で残る仕事
– セラピスト、レストランの店員、営業

oxford_profession