AI
Artificial Intelligence(人工知能)の略で、人間の知的な働きをコンピュータで再現する技術。
学習、推論、判断などの機能を持ち、画像認識や言語処理、予測などに応用される。
近年は日常生活や産業の幅広い分野で活用が進んでいる。
例:画像から人物を認識するカメラや、会話するチャットボット。
AGI(Artificial General Intelligence)
人間と同じように幅広い知識やスキルを持ち、柔軟に学習・対応できるAI。
特定のタスクだけでなく、あらゆる状況に適応できることを目指している。
現在のAIの多くは特化型であり、AGIはまだ研究段階。
例:人間のように、仕事、会話、創造活動などを自律的にこなすAI。
AI社会原則
AIの開発や利用に関して、社会全体が守るべき基本的な方針。
人間中心、プライバシーの尊重、公正性、透明性、安全性などが重視される。
日本では総務省などが策定している。
例:AIが人を差別しないように設計・運用すること。
人工知能学会倫理指針
日本の人工知能学会が定めた、AI研究者・開発者の行動規範。
人権の尊重、プライバシー配慮、社会への責任、説明可能性などが盛り込まれている。
倫理的な問題を未然に防ぐためのガイドライン。
例:AIが作った判断の根拠を説明できるように設計する。
特化型AI
特定の目的や分野に特化して設計されたAI。
囲碁、翻訳、顔認識など、狭い範囲では人間を超える性能を持つこともある。
一つの課題には強いが、他の分野に応用はできない。
例:自動運転車の障害物検知用AIや、天気予報AI。
汎用AI
幅広い分野で使えるように設計されたAI。
複数の知識やスキルを統合して、さまざまな課題に対応できる。
AGIと同義で語られることもある。
例:文章作成、画像生成、対話などを同時にこなすAI。
AIによる認識
カメラやセンサーから得られた情報をAIが分析して意味を理解すること。
画像認識、音声認識、文字認識などが代表例。
多くのAIサービスの基本技術となっている。
例:防犯カメラが人の顔を認識して記録する。
AIによる自動化
人間が行っていた作業をAIで自動的に実行する仕組み。
単純作業から高度な判断まで、自律的に処理できる。
省人化や効率化、品質の安定化につながる。
例:チャットボットが問い合わせ対応を自動で行う。
AIアシスタント
AIを活用して、情報検索やスケジュール管理、提案などを行う支援ツール。
音声や文字での対話を通じて、ユーザーの作業を助ける。
スマートフォンやPC、家庭用デバイスで広く利用されている。
例:スマートスピーカーに「明日の天気を教えて」と話しかける。
生成AI
文章や画像、音声などをAIが新たに作り出す技術。
大量のデータを学習して、新しいコンテンツを自動的に生み出す。
創作活動や業務支援、教育など多様な分野に応用されている。
例:AIが詩や小説、イラストを自動で作成する。
マルチモーダルAI
複数の種類のデータ(文字・音声・画像など)を同時に処理・理解できるAI。
情報を統合的に認識することで、より自然な対話や判断が可能になる。
人間のような総合的な理解に近づける技術として注目されている。
例:写真を見ながら、その内容について会話できるAI。
ランダム性
AIの動作や学習結果に偶然的な要素が含まれること。
生成AIでは同じ入力でも異なる出力が得られる原因となる。
多様な出力を得るために意図的に取り入れられることもある。
例:同じ質問をしても、AIが毎回違う文章を出力する。
ビッグデータの分析
大量かつ多様なデータを収集・整理し、有用な情報や傾向を見つけ出すこと。
従来の手法では処理できなかったようなデータも対象となる。
企業活動、行政、医療など幅広い分野で活用されている。
例:SNS上の投稿を分析して、流行語や世論の傾向を把握する。
教師あり学習
正解付きのデータを使って、AIにルールやパターンを学習させる手法。
入力と正解の対応関係を学ぶことで、未知のデータに対しても予測や分類ができる。
分類や回帰の問題に使われることが多い。
例:猫と犬の画像にラベルを付けて、動物を自動で判別させる。
教師なし学習
正解が与えられていないデータから、AIが自分でパターンや特徴を見つけ出す手法。
クラスタリング(分類)や次元削減などに用いられる。
データ構造の理解やグループ分けが目的。
例:顧客の購買履歴から、似た行動パターンのグループを発見する。
強化学習
行動と報酬を繰り返す中で、AIが最も得になる行動を学習していく手法。
成功体験を積み重ねて、最適な行動戦略を見つけ出す。
ゲームやロボット制御などで活用される。
例:AIが何度もゲームをプレイし、得点を最大化する方法を学ぶ。
説明可能なAI(XAI:Explainable AI)
AIの判断や予測の理由を、人が理解できる形で示すことを目的とした技術や仕組み。
ブラックボックスになりがちなAIの内部処理を可視化・説明可能にする。
信頼性や責任の明確化、ユーザーの納得感の向上につながる。
例:なぜその診断結果が出たのか、AIが使ったデータや根拠を示す医療AI。
ヒューマンインザループ(HITL)
AIの判断や学習プロセスに人間が関与する仕組み。
完全な自動化ではなく、人間の監視や判断を含めて安全性や正確性を高める。
人間とAIが協力して意思決定を行う場面で重要視される。
例:AIが候補を提示し、人間が最終的に意思決定を行うレコメンドシステム。
AI利用者の関与によるバイアス
AIの使い方や利用者の行動が原因で生まれる偏りや不公平。
利用者の先入観や操作ミスによってAIの出力結果に影響が出ることがある。
意図せずに差別的な扱いが助長されることもあるため注意が必要。
例:特定の人ばかり検索してレコメンドAIを使うと、偏った結果が表示されやすくなる。
アルゴリズムのバイアス
AIが学習するデータや設計方法に起因して生まれる偏り。
差別的な結果や不公平な判断につながることがある。
公平性や倫理性を考慮したアルゴリズム設計が求められている。
例:過去の採用データに偏りがあると、AIが特定の属性を不利に扱うことがある。
AIサービスの責任論
AIが誤った判断や行動をした場合、誰が責任を負うべきかという議論。
開発者、提供者、利用者の責任範囲が曖昧になることがある。
法整備や倫理ガイドラインの整備が進められている。
例:AIが誤診した場合、病院・開発企業・医師の誰が責任を持つべきか。
トロッコ問題
AIの自動判断における倫理的ジレンマの代表例。
複数人の命が関わる中で、誰を救うかを選ばなければならない状況。
自動運転車の事故回避判断などで現実的な課題となっている。
例:AIが、子どもを避けて運転者を危険にさらすか、逆を選ぶかの判断を迫られる。
ハルシネーション
生成AIが事実と異なる内容や存在しない情報をもっともらしく生成してしまう現象。
文章や画像において信憑性の低い結果が出ることがある。
利用時には確認や裏取りが必要になる。
例:実在しない法律や人物をAIが生成してしまう。
ディープフェイク
AI技術を使って人物の顔や声を本物そっくりに加工する技術。
映像や音声を偽造して他人になりすましたり、虚偽情報を拡散するリスクがある。
悪用防止と同時に、検出技術の開発も進められている。
例:有名人が実際には話していない内容を話しているように見せかけた動画。
AIサービスのオプトアウトポリシー
利用者がAIによる分析・記録・活用を拒否できる仕組みや方針。
個人の意思によってAIの介入を制限できるようにすることで、プライバシーや自由を保護する。
AIサービス導入における重要な倫理的配慮の一つ。
例:AIによる広告配信を無効にする設定をユーザーが選べる。