単語 | 年代 | 人名 | 内容 |
人工知能(AI) | | ジョン・マッカーシー | ダートマス会議でジョン・マッカーシーが初めて使った言葉 |
ダートマス会議 | 1956年 | | |
ENIAC(エニアック) | 1946年 | | アメリカのペンシルベニア大学で誕生した世界初の汎用電子式コンピュータ |
ロジック・セオリスト | | アレン・ニューウェル ハーバード・サイモン | ダートマス会議で披露した世界初の人工知能プログラム |
第1次AIブーム | 1950年代後〜1960年代 | | 推論や探索を主とする。トイプロブレムしか解けない |
第2次AIブーム | 1980年代 | | 知識の量を主とする。エキスパートシステム |
第3次AIブーム | 2010年以降 | | 機械学習や特徴表現学習を主とする |
トイ・プロブレム | | | 定理の証明や機械翻訳などの簡単な問題。第1次AIブームの終焉 |
エキスパートシステム | | | 「知識ベース」と「推論エンジン」から構成。知識が豊富になると蓄積/管理の手間が膨大。 |
ディープラーニング | | | ニューラルネットワーク(パーセプトロン)多層化。3層以上多層化しても高まらない。バックプロパゲーションやオートエンコーダで解決 |
AlphaGo | | | Deppmind社が開発した囲碁の対戦プログラム。囲碁のトップ棋士を破る |
人工無脳 | | | チャットボット、おしゃべりボット |
ELIZA(イライザ) | 1964~1966年 | ジョゼフ・ワイゼンバウム | 人工無脳の元祖 |
MYCIN(マイシン) | 1970年 | | スタンフォード大学で開発されたエキスパートシステム。診断支援、専門外の医師より高い正答率を達成 |
DENDRAL | 1960年代 | エドワード・ファイゲンバウム | 未知の有機化合物を特定するシステム |
オントロジー | | | 「語彙」「意味」「関係性」を他者と共有できるように定められた概念化の仕様 |
ヘビーウェイトオントロジー | | | 人間が関わることになる傾向が強く、時間的/金銭的コストがかかる |
ライトウェイトオントロジー | | | 深い考察を行わないことから、コンピュータが自動的に実行できる |
ワトソン | | | IBMが開発した質問応答システム。Wikipediaの情報を元にライトウェイトオントロジーを生成 |
東ロボくん | 2011~2016年 | | 質問の意味を理解していないため読解力に乏しく、技術的ブレイクスルーが必要とされ凍結 |
ニューラルネットワーク | | | 人間の神経回路を模倣してネットワークを形成。ニューロンの代わりにパーセプトロンを使用 |
パーセプロトロン | 1958年 | フランク・ローゼンブラット | ニューラルネットワークの元祖。ロジスティック回帰。 |
ロジスティック回帰 | | | 2クラス分類。教師あり。対数オッズを重回帰で予測。ロジット変換。 |
オートエンコーダ(自己符号化器) | | | 教師なし学習。隠れ層は入力層・出力層に比べて次元が小さい |
フレーム問題 | 1969年 | ジョン・マッカーシー パトリック・ヘイズ | 実行しようとしていることと関連がある事柄を選び出すことが難しいという人工知能研究最大の難問 |
チューリングテスト | | アラン・チューリング | 遠隔地にいる人間がコンピュータと会話し、コンピュータと見抜けなければ知能があると判断 |
中国語の部屋 | | ジョン・サール | チューリングテストに合格しても知能があるかはわからない」ことを示すための例え話 |
シンボルグラウンディング問題 | | スティーブン・ハルナッド | 「シンボル(記号)と対象がいかにして結びつくか」という問題。フレーム問題同様、人工知能の難問。 |
知識獲得のボトルネック | | | 一般常識のような暗黙的かつ膨大な知識をすべてコンピュータに入れることは不可能であること |
特徴量表現学習 | | | ディープラーニングで使用する特徴量をコンピュータ自身が見つけだすアプローチ |
ラッソ回帰 | | | 教師あり学習で用いられるモデルの一つ。線形回帰にL1正規化を加えた手法 |
リッジ回帰 | | | 教師あり学習で用いられるモデルの一つ。線形回帰にL2正規化を加えた手法 |
ロジスティック回帰 | | | 教師あり学習。回帰ではなく分類に使用される |
シグモイド関数 | | | 2種類を分類する際に用いられる関数。0から1の間に写像し、trueかfalseかで見分ける |
ソフトマックス関数 | | | 3種類以上を分類したい際にシグモイド関数に代えて用いられる関数 |
ランダムフォレスト | | | 着目する特徴量をランダムに決定してその特徴量ごとに決定木を生成する手法 |
アンサンブル学習 | | | 全体から一部のデータを用いて、複数のモデルで学習させること |
バギング | | | 全体から一部のデータを用いて、複数のモデルで並列に学習させること。 |
ブースティング | | | 全体から一部のデータを用いて、複数のモデルで逐次的に学習させること。精度は高いが、学習に時間がかかる |
サポートベクターマシン | | | パターン分類を行う手法。扱うデータが高次元かつデータが線形分類できない問題を持つが、高次元に写像することで分類が可能 |
マージン最大化 | | | サポートベクターマシンで距離が最大となるような境界を求めること |
カーネル関数 | | | SVMで写像に用いられる関数 |
カーネルトリック | | | SVMでカーネル関数を用いて写像すること |
k-means | | | 教師なし学習。入力データからk個のグループ構造を見つけ出してまとめる手法 |
強化学習 | | | 教師なし学習。次元削減 |
交差検証 | | | データを分割して評価を行うこと |
混同行列 | | | 項目が「犬」と「狼」ならば「予測が犬、実際が犬」「予測が犬、実際が狼」「予測が狼、実際が犬」「予測が狼、実際が狼」といった4通りの図となる |
真陽性 | | | 陽性側で予測値と実際の値が一致した組み合わせ |
偽陽性 | | | 陽性側で予測値と実際の値が一致しなかった組み合わせ |
真陰性 | | | 陰性側で予測値と実際の値が一致した組み合わせ |
偽陰性 | | | 陰性側で予測値と実際の値が一致しなかった組み合わせ |
正解率 | | | 全データ中どれだけ予測が当たったかの割合 |
適合率 | | | 予測が正の中で実際に正だった割合 |
再現率 | | | 実際に正であるものの中で、正だと予測できた割合 |
F値 | | | 適合率と再現率の調和平均 |
過学習 | | | 訓練データに最適化され過ぎてしまい、汎化性能が悪い状態 |
アンダーフィッティング | | | 訓練データを正規化しすぎてしまい、全体の汎化性能が低下した状態 |
正規化 | | | データを0から1に収まるようにスケーリングすること |
L1正規化 | | | 一部のパラメータの値をゼロにする正規化。特徴選択が可能 |
L2正規化 | | | パラメータの大きさに応じてゼロに近づける正規化。汎化されたなめらかなモデルを得ることが可能 |
正則化 | | | 過学習を抑制するための手法 |
標準化 | | | 平均を0に、分散を1に変換すること |
PARRY | | | ELIZA同様初期の会話ボット |
RFC439 | | | ELIZAとPARRYの会話が残っているRFC |
ニューロン | | | ニューラルネットワークで使用される予測器。ニューラルネットワークの最小単位 |
基礎集計 | | | 前処理さらに前にデータの傾向を把握するために行う作業 |
特徴量エンジニアリング | | | データからモデルが認識しやすい特徴を作ること |
one-hot-encoding | | | カテゴリカル変数をカテゴリカル変数であると分かる形に変換すること |
スラック変数 | | | サポートベクターマシンで誤分類を許容する程度 |
勾配下降法 | | | 関数を最小化させる。 |
局所最適解 | | | 周辺では誤差の値が小さいが、最小値を実現するわけでもない解 |
大域的最適解 | | | 誤差の値を最も小さくする解 |
停留点 | | | 局所最適解でも大域的最適解でもないが勾配がゼロになる点 |
敵対的生成ネットワーク(GAN) | | イアン・グットフェロー | 教師なし学習。画像生成。生成ネットワークと、識別ネットワークからなる。 |
畳み込み層 | | | フィルタを積和演算+活性化関数の作用 |
プーリング層 | | | 平均値、最大値を用いてサブサンプリングを行う |
Word2Vec | 2013年 | Google | 単語をベクトルとして表現。単語の意味の近さを計算できる。 |
Kaggle(カグル) | | | コンペティションやデータサイエンティストのディスカッションのプラットフォーム |
Google Scholar | | | 学術論文の検索エンジン |
Cousera(コーセラ) | | | 世界の大学の講義を受講できるオンライン講座 |
airXiv(アーカイブ) | | | 研究論文の検索エンジン |
OpenAI Gym | | | 自分で制作した強化学習用アルゴリズムを試験できるAIシミュレーションプラットフォーム |
コメント