機械は考える能力を持つか?
この問いは一見単純に思えるかもしれないが、人間が生来持っている内省的な性質が、「考える」という概念に深い理解を与えてくれている。しかし、私たちの個人的で主観的な経験(私たちの思考を物語る心の声のようなもの)の影響を受けずにこの問いに答えるには、思考が真に意味するものを正式に定義する必要がある。
鳥のさえずりや飛行をシミュレートしたおもちゃから、1912年にレオナルド・トーレスがチェスをするオートマトン「エル・アジェドレシスタ」まで、動物や人間の行動を模倣したオブジェを作ることに、人類は長い間魅了されてきた。
しかし、人間の知的特性とは対照的に、物理的特性をシミュレートする機械には顕著な違いがある。
歴史 AIへのマイルストーンMachine Learning
この問題をより正式に扱うことを可能にした進展は、ここで網羅的に挙げるにはあまりに多すぎるが、いくつかの大まかなマイルストーンは注目に値する:
数学と論理学において:
- ゴットロブ・フレーゲによる19世紀末の近代論理学の発展
- バートランド・ラッセルとアルフレッド・ホワイトヘッドが1910年に発表した『プリンキピア・マテマティカ』は、数学が記号論理学に還元可能であることを示そうとしている。
- デイヴィッド・ヒルベルトが導入したEntscheidungsproblemは、任意の数学的(論理的)命題を取り上げ、公理の集合からその妥当性を決定できる方法を求めるものである。
- 1931年のゲーデルの不完全性定理は、十分に表現力のある形式システムは完全で一貫性のあるものにはなりえないことを示した。
- 1948年、クロード・シャノンが情報理論の分野を導入
心理学と神経科学(動物と人間の学習)において
- イワン・パブロフやB.F.スキナーなどの行動主義者による古典的条件づけとオペラント条件づけ
- ケネス・クレイクの1943年のメンタル・モデルの概念と人間の推論におけるその使用
- 1949年にドナルド・ヘブが提唱したシナプス可塑性と神経可塑性の理論
- 振る舞いにおける直列秩序の神経組織:カール・ラシュリー著 1951年
エンジニアリング
- サイバネティクスの分野は、1948年にノルベルト・ウィーナーによって環境フィードバックによる制御システムを研究するために導入された。
- 1953年にリチャード・ベルマンらによって研究された動的計画法と最適制御理論との関係
マッカローとピッツと最初のニューラルネットワーク
チューリング・マシンの後に起こった、そして部分的にはチューリング・マシンにインスパイアされた1つの大きな発展は、ウォーレン・マッカローとウォルター・ピッツによる、彼らの代表的な論文『神経活動に内在するアイデアの論理計算』における、最初のニューラルネットワークの導入であった。実際、マッカローとピッツの研究は、間違いなくチューリングの研究よりも初期の人工知能(AI)研究者にはるかに大きな影響を与えた。
マッカローとピッツが互いに仕事をするようになった経緯は、それ自体が魅力的な物語である1。都市伝説では、映画『グッド・ウィル・ハンティング』はピッツの人生をモデルにしている。
ディープラーニングがより最近の画期的な技術であるかのように描かれている現代とは対照的に、最初のニューラルネットワークが1943年に開発されたという事実も同様に驚くべきことである。
マッカローとピッツは、ラッセルとホワイトヘッドの『プリンキピア数学』の命題論理を基礎とし、神経解剖学の知識を取り入れて、論理ゲートの機能を再現するような方法で、シナプスの重みのセットを通してニューロンがどのように相互接続されるかという理論を開発した。
このようなゲートの集合があれば、任意の論理命題の文の真理値を計算するニューラルネットワークを構築することができる。
彼らのモデルはニューロンの構造と機能を著しく単純化しすぎており、学習も適応もできなかった(シナプスの重みは手作業で設定しなければならなかった)。しかし、このモデルはジョン・フォン・ノイマンのコンピューター・アーキテクチャに影響を与え、後に人工知能という言葉を世に送り出すことになる研究者たちに大きなインスピレーションを与えた。
AI:ダートマスのワークショップがすべてを決定づけた
マシン・インテリジェンス、シンキング・マシン、サイバネティクスといった代替案を抑え、人工知能という言葉は1955年にジョン・マッカーシーによって初めて作られた。
それは、機械知性に関連する概念を研究している多様な背景を持つ研究者の小集団を集めた夏期ワークショップの計画を説明しようとするものであった。クロード・シャノン、マービン・ミンスキー、ネイサン・ロチェスターに加え、マッカーシーがワークショップの提案書で述べた目標は次のように定義されていた:
この研究は、学習やその他の知能の特徴のあらゆる側面は、原理的には機械にシミュレートさせることができるほど正確に記述できるという推測に基づいて進められる。機械に言語を使わせ、抽象や概念を形成させ、現在人間にしかできないような種類の問題を解決させ、自らを向上させる方法を見つける試みがなされる。
マッカーシーが命名したこの名称は、急成長を遂げつつある自分たちの分野を、それぞれの研究者が所属していた無数の分野と区別したいという願望によるものだった。また、マッカーシーは、威圧的なノルベルト・ウィーナー2との関係を恐れて、サイバネティックスという呼称を避けたかったことにも留意すべきである。
とはいえ、提案書には7つのテーマが盛り込まれ、各研究者が独自のテーマを提案するよう呼びかけられていた。その中には、"コンピュータが言語を使うようにプログラムするには?""ニューロンネット""自己改善""抽象化 "などがあった。」ニューロンネット"、"自己改善"、そして感覚入力から抽象的なものを学習する "抽象化 "である。
このワークショップで提示されたトピックは、AIの将来の方向性を大きく左右するものであり、異分野の研究者たちを共通の目標に向かって団結させるとともに、その目標を達成するための最善の方法について意見の対立する研究者たちの間に険悪な対立を生み出した。
AIの開発
ダートマスのワークショップ以来、AIの進歩はさまざまなテクニックの流行と衰退を見てきた。例えば、現在のディープラーニング革命は、ニューラルネットワークが相対的に人気を博した3回目の時期である。
1940年代から1960年代にかけての第一期は、McCulloughとPittsによるニューラルネットワークの発明に始まり、パーセプトロンの開発まで続いた。
パーセプトロンは、1957年にフランク・ローゼンブラットによって開発されたシンプルなニューラルネットワークで、適応と学習を行うことができ、簡単な光学式文字認識が可能であった。
その有望な能力にもかかわらず、ニューラルネットの初期の提唱者であったマービン・ミンスキーとシーモア・パパートが1969年に著書『パーセプトロン』を出版したとき、ニューラルネットは分野として事実上消滅した。
その中で彼らは、ローゼンブラットのパーセプトロンが数学的問題の全クラスに対する解を学習できないことを証明し、その限界を詳述した。最も有名なのはXOR関数で、ネットワークは2つの入力の「排他的論理和」の結果を出力することを学習しなければならない。
後に、この制限は、非線形閾値関数の使用など、ちょっとした変更で簡単に克服できることがわかったが、この本は、脳から着想を得た学習アルゴリズムへの資金提供や関心をなくすのに十分な説得力があった。
ニューラルネットワークの消滅によって残された空白は、後に古き良き時代のAI(GOFAI)と呼ばれるものによって埋められることになった。GOFAIを 定義した技術は、大部分が記号論理であった。これは、処理が多くのニューロンやノードにまたがり、表現が分散して連続的になりうるニューラルネットワークのサブシンボリック処理とは対照的である。
GOFAIは、If-Thenのような生産規則と、行動とその結果についての可能な仮説を並べ、評価し、比較することができる検索技術を利用した。専門家システムは、トピックの専門家の知識を、コンピュータやアルゴリズムが操作するのに適した表現に形式化することを試みて開発された。
GOFAIの成功にもかかわらず、記号的AIへの流れは、1970年代後半から1980年代にかけてのニューラルネットワークの最初の復活によって抵抗を受けた。この時期、神経細胞のシステムが広く相互接続されていたため、この時期はコネクショニスト・システムとして知られていた。
この復活は主に、適応共鳴理論(ART)、生物学的にもっともらしいニューラルネットワーク、逆伝播などの技術の導入によるものだった。これは人工ニューラルネットワークの重みを適応させる学習アルゴリズムであり、XOR問題の解がいかに簡単に学習できるかを示している。
この時代の幕開けとなったのは、ジェームズ・マクレランドとデビッド・ルメルハートによる『並列分散処理』という本だった:Parallel Distributed Processing:Explorations in the Microstructure of Cognition』である。高度に専門的ではあったが、この本はヒットし、ニューヨーク・タイムズ紙のブックレビューにも取り上げられた。
このような新たな栄光にもかかわらず、コンピューティングパワーの限界とモデルを訓練するためのデータの不足のために、ニューラルネットワークの人気の第二の時代も短命に終わった。
その結果、ニューラルネットワークはおもちゃのような問題に限定され、シンボリック・アプローチの支持者たちからの批判にさらされることになった。第二のAIの冬は2000年代初頭まで続くことになる。
現在のディープラーニング革命は、ニューラルネットワークをその第3幕に押し上げた。1997年にHochreiterとSchmidhuberによって開発された長期短期記憶(LSTM)モデルや、2006年にHintonが紹介した深層信念ネットワーク(DBN)のような開発は、以前のモデルのいくつかの限界を克服する方法を示した。
計算能力とグラフィック・プロセッシング・ユニット(GPU)の向上と、増え続けるデータの利用可能性が相まって、ディープラーニング・モデルは、一般的な機械学習タスクのエラー率が劇的に改善され始めた。
音声認識、コンピュータ・ビジョン、自然言語処理におけるニューラルネットワークの突然の進歩は、広範囲に影響を及ぼした。グーグル、Facebook、マイクロソフトなど、音声、画像、テキストデータの処理に強い関心を持つ大企業が研究開発に多大な資源を投入し始め、AIの開発ペースが加速した。