コンテンツにスキップ

AIの仕組み/AIとは

出典: フリー教科書『ウィキブックス(Wikibooks)』

概要

[編集]

「人工知能(AI: Artificial Intelligence)」という言葉は、今日ではニュースや製品広告など日常の中で毎日のように目にするようになりました。しかし、「AIとは何か」という問いに対して、万人が納得する唯一の明確な定義は、実はまだ定まっていません。

広義には、「人間が知能を使って行うタスクを、コンピュータに実行させる技術」と定義できます。これには、言語の理解、画像の認識、ゲームの戦略立案、推論などが含まれます。

本章では、AIがどのように発展してきたのか、そして従来のアプローチと現代のAIがどう異なるのか、その基本的な概念を解説します。

AIの定義と歴史

[編集]

AIという言葉は、1956年にアメリカで開催された「ダートマス会議」において、計算機科学者のジョン・マッカーシー(John McCarthy)によって初めて提案されました。しかし、それ以前から「機械は考えることができるか」という問いは議論されており、AI研究は大きな期待(ブーム)と失望(冬の時代)を繰り返しながら発展してきました。

前史:考える機械への問い

[編集]

AIという用語が誕生する以前の1950年、イギリスの数学者アラン・チューリングは、論文『計算機械と知性(原題:Computing Machinery and Intelligence)[† 1]』の中で「機械は思考できるか?」という問いを提起しました。そして、彼は機械に知性があるかを判定する方法として、「チューリング・テスト」を考案しました。これは、人間がコンピュータと対話し、相手が人間か機械かを判別できなければ、その機械には知能があるとする考え方です。この提案は、その後のAI研究における重要な哲学的・実用的な目標となりました。

第1次AIブーム(1950年代後半 - 1960年代)

[編集]

1956年のダートマス会議を契機に、第1次AIブームが到来します。この時代は、「推論」と「探索」の時代と呼ばれます。

研究者たちは、人間の思考プロセスを記号(シンボル)の操作として表現しようと試みました(記号主義)。このアプローチにより、コンピュータは迷路の探索や、チェスのような明確なルールがあるゲームにおいて成果を上げました。また、1966年に開発された対話プログラム「ELIZA」は、スクリプトとしてあらかじめ用意されたパターンマッチングのルールに従って応答するだけの単純な仕組みでしたが、まるでセラピストのように振る舞い、多くの人々に衝撃を与えました。[† 2]

当時、アメリカ合衆国の認知心理学者ハーバート・サイモンは、1965年の記事内で「20年以内に、機械は人間ができるあらゆる仕事をこなせるようになるだろう。(machines will be capable, within twenty years, of doing any work a man can do.)」と予測するなど[1]、AIの未来に対して非常に楽観的な見方が広がっていました。

第1次AIの冬

[編集]

しかし、1960年代後半から1970年代初頭にかけて、AI研究は最初の「冬の時代」を迎えます。

初期のAIが解けたのは、ルールが限定された「トイ・プロブレム(おもちゃの問題)」に過ぎませんでした。現実社会の問題を解こうとすると、考慮すべき組み合わせが爆発的に増加し、当時のコンピュータの計算能力では処理しきれなくなる「組み合わせ爆発」の壁に直面しました。また、1969年にマービン・ミンスキーシーモア・パパートらが出版した『パーセプトロン(原題:Perceptrons: An Introduction to Computational Geometry)[† 3]』という書籍において、当時の単純なニューラルネットワーク[† 4]の限界が数学的に証明されたことも、研究への投資が冷え込む一因となりました。

第2次AIブーム(1980年代)

[編集]

1980年代に入ると、「知識(エキスパートシステム)」の時代として第2次AIブームが到来しました。

以前の「汎用的な推論」を目指すアプローチとは異なり、この時期は「特定の専門分野の知識」をコンピュータに大量に入力することで問題を解決しようと試みました。これがエキスパートシステムです。例えば、企業の受注構成システムや医療診断支援などが実用化され、産業界での利用が進みました。[2] 日本でも、政府主導による「第五世代コンピュータ」プロジェクトが発足し、推論処理に特化したコンピュータの開発が進められました。

第2次AIの冬

[編集]

1980年代後半から1990年代前半にかけて、再びAIは冬の時代を迎えます。

エキスパートシステムには、致命的な課題がありました。それは「知識のメンテナンス」です。世の中の複雑な事象を人間が手作業でルール化し、コンピュータに入力し続けることには限界がありました。また、常識や文脈といった暗黙知を記述することの難しさ(フレーム問題)や、矛盾する情報への対応力の低さが露呈しました。システムが大規模になるほど保守コストが増大し、期待されたほどの費用対効果が得られなかったため、多くのプロジェクトが中止されました。

統計的手法への転換(1990年代)

[編集]

ブームが去った1990年代、AI研究の潮流に静かな変化が起きました。従来の「人間がルールを記述する」記号的なアプローチから、確率や統計を用いてデータから最適解を導くアプローチ(帰納的アプローチ)への転換です。

1997年には、IBMのスーパーコンピュータ「ディープ・ブルー」が、チェスの世界チャンピオンであるガルリ・カスパロフに勝利しました[3]。これはAI史の記録的なマイルストーンとなりましたが、その中身は過去の膨大な棋譜データを統計的に評価する機能と、圧倒的な計算力による探索を組み合わせたものでした。このように、インターネットの普及に伴うデータの増加と計算機の進化が、次のAIブームの礎を作っていきました。

第3次AIブーム(2000年代 - 現在)

[編集]

2000年代以降、現在まで続く第3次AIブームが到来しました。この主役は「機械学習」、そして「ディープラーニング(深層学習)」です。

最大の特徴は、人間が特徴を定義するのではなく、コンピュータ自身が大量のデータ(ビッグデータ)から特徴やパターンを学習する点にあります。特に2012年の画像認識コンペティション(ILSVRC)において、アレックス・クリシェフスキー(英語版)イリヤ・サツケバージェフリー・ヒントンらのチームが開発したディープラーニングモデル「AlexNet」が圧倒的な精度で優勝したことは、世界中の研究者に衝撃を与えました。

これにより、長らく停滞していたニューラルネットワーク研究が一気に主流となり、画像認識、音声認識、自動翻訳などの精度が飛躍的に向上しました。2016年には、Google DeepMindの囲碁AI「AlphaGo」が世界トップ棋士を打ち破り、AIの進化を世界に印象づけました。

生成AIの登場(2020年代)

[編集]

さらに2020年代に入ると、生成AIという新たなフェーズに突入しています。

従来のAIの多くが「識別」や「予測」を主なタスクとしていたのに対し、生成AIは学習したデータに基づいて新しいテキスト、画像、音声などを「創造」することができます。特に「Transformer」と呼ばれる技術をアーキテクチャ[† 5]を採用した大規模言語モデル(LLM)の登場により、人間と自然な対話が可能なAIが急速に普及しました。これにより、AIは専門家だけでなく、一般の人々が日常的に利用するツールへと変化しました。

ルールベースと機械学習

[編集]

現代のAIを理解する上で最も重要なのが、「従来のプログラム(ルールベース)」と「機械学習」の違いです。

ルールベース

[編集]

第2次AIブームまでの主流な手法であり、人間がプログラムの論理構造をすべて設計することが特徴です。具体的には、「入力Aに対してはBを出力せよ」「条件Xを満たすなら処理Yを行え」といった膨大な命令を、人間が手作業で記述することでプログラムを構築します。

この手法の大きな利点は、動作の理由が明確であり、人間にとって判断基準が理解しやすい点にあります。命令を記述した人間がロジックのすべてを把握しているため、誤作動が起きた際の修正も容易です。しかしその一方で、想定外の入力や、個体差のある複雑な対象の特徴を捉えることには限界があります。例えば「猫の写真」を判定させようとする場合、「耳が尖っている」「ヒゲがある」といった猫特有の性質をすべて言語化してプログラムに反映させる必要があり、現実的には記述しきれないほどの困難を伴います。

機械学習

[編集]

第3次AIブームの中心を担う手法であり、人間がプログラムに与えるのは「データの読み方」と「学習の仕方」という枠組みに限定されます。ルールベースとは対照的に、プログラムに数万枚単位の大量のデータ(例:猫と犬の写真)を読み込ませ、コンピュータ自身に「猫と犬を見分けるための特徴」を自動的に発見させます。こうした、データから共通の規則を導き出す手法は帰納的アプローチと呼ばれます。

機械学習の最大の利点は、画像認識や自然言語処理など、人間が言葉でルールを記述しきれないほど複雑なタスクにも対応できる点にあります。コンピュータが膨大な数値計算を通じて自ら特徴を見出すため、人間が気づかなかったような微細なパターンも学習することが可能です。しかし、この複雑さはデメリットにもなり得ます。AIが導き出した答えの精度が非常に高くても、なぜその判断に至ったのかという内部の計算過程や根拠が人間には不透明になってしまうことがあり、これはブラックボックス問題として知られています。

特化型AIと汎用AI

[編集]

「AI」と呼ばれるものには、現在の技術レベルと、SF映画などで描かれる将来のイメージが混在しています。これを整理するために、AIはその能力と適用範囲によって主に以下の2つに分類されます。

特化型AI(ANI)

[編集]

特定のタスクのみを処理できるAIです。現在実用化されているAIは、すべてこの特化型AIに分類されます。

具体的な事例としては、チェス元世界チャンピオンのガルリ・カスパロフに勝利したDeep Blueや、日常的に利用される自動翻訳システム(例:Google 翻訳)、あるいは複雑な交通状況を判断する自動運転車などが挙げられます。

これらのAIは、特定の分野においては人間を凌駕する能力を発揮することもありますが、専門外のことは一切できません。例えば、将棋のAIは対局に特化しているため、お茶の淹れ方を知りませんし、雑談を交わすこともできません。このような性質から、特化型AIは「弱いAI」とも呼ばれます。[† 6]

汎用AI(AGI)

[編集]

人間のように、あらゆる種類の知的タスクをこなすことができるAIです。

特化型AIとの決定的な違いは、その適応能力にあります。汎用AIは、想定外の状況に直面しても過去の経験を応用して問題を解決できるとされています。また、単に命令を実行するだけでなく、自ら目標を設定し、必要な学習対象を主体的に選ぶことができる点も大きな特徴です。

2020年代において、大規模言語モデル(LLM)の登場により、多様なタスクをこなすAIが出現していますが、完全なAGIはまだ研究段階あるいは仮説の領域にあります。これらは「強いAI」とも呼ばれ、しばしば意識や自己認識を持つ存在として、議論の対象になっています。

本書の以降の章では、現在主流である「特化型AI」を実現するための技術、特に「機械学習」の仕組みについて詳しく解説していきます。

注釈

[編集]
  1. ^ 論文へのリンクはAIの仕組み/外部リンクの3番を参照
  2. ^ 厳密に区別すると、人間のような対話をし、セラピストのように振る舞ったのはELIZA上で動作するDOCTORというスクリプトですが、一般的にはELIZAという名称で知られています。
  3. ^ 本へのリンクはAIの仕組み/外部リンクの1番を参照
  4. ^ ここでは、当時主流だった単層パーセプトロンのこと。
  5. ^ アーキテクチャとは、元々は「建築様式」を意味する言葉ですが、AIの分野ではニューラルネットワークの「基本構造」や「設計図」を指します。具体的には、ニューロンがどのように結合され、データがどのような順序で処理されるかという構成のことです。
  6. ^ ここでの「弱い」は、「能力が低い」ということを意味するものではなく、あくまで「個としての意識を持たない」という意味合いで用いられる分類です。

出典

[編集]
  1. ^ Quote Origin: Machines Will Be Capable, Within Twenty Years, of Doing Any Work That a Man Can Do” (英語). quoteinvestigator.com (2020年11月11日). 2025年12月18日閲覧。
  2. ^ 人工知能の歴史” (日本語). www.ai-gakkai.or.jp. 人工知能学会 (2025年2月1日). 2025年12月18日閲覧。
  3. ^ Deep Blue | IBM” (英語). www.ibm.com. IBM (2025年3月16日). 2025年12月18日閲覧。



  目次 2. 機械学習の基礎 >>