本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。
静かな朝、ノート PC の前で「ヘイ、コパイロット」とつぶやくと、画面の隅に AI が立ち上がる。米マイクロソフトは2025年10月16日、Windows 11 向けの新機能として、音声だけで操作を始められる起動と、表示中の画面全体を理解して支援する「Copilot Vision」を発表した。日本語にも対応し、マウスやキーボード中心の作法をやさしく塗り替える節目が訪れたと映る。
声で呼び出す PC、合図は「ヘイ、コパイロット」
新しい Copilot は、呼びかけるだけで起動し、文章を打たずに作業の指示が出せる。音量の調整やファイル検索といった日常の用事から、アプリを横断した段取りまで、自然な会話を入口にして動かす構えだ。従来のショートカットに比べて、手を止めずに始められる利点が浮かぶ。
呼びかけてからのやり取りは音声中心でもテキストでもよく、状況に応じて切り替えられる。作業の合間に思いついた指示を口にするだけで済むため、集中を崩さずに次の一手へ移れる。日本語にも対応し、言い回しのゆらぎにもある程度ついてくるとみられる。
キーボードとマウスの二枚看板に、音声という第三の入口が並び立つかたちである。現時点で確認されている範囲では、起動の合図を設定から有効にし、周辺機器のマイク入力を使って会話を始める流れになる。自宅でも職場でも、声で触れる PC という風景が広がっていく。
画面を「見る」AI、作業の最短ルートを示す
Copilot Vision は、いま目の前の画面全体を AI が読み取り、目的に合わせて支援する機能である。写真編集なら露出の直し方、履歴書なら表現の整え方、旅行計画なら持ち物の過不足といった具合に、表示内容に即して助言が返る。単なる検索とは異なる、現場密着の手がかりになる。
特徴的なのが「Highlights」だ。アプリの中で「ここを押して」「次はこのメニュー」と、手順を画面上に直接示す。使い慣れない設定に迷っても、見本をなぞるだけで進めるので、説明書を探す時間が減る。学びながら動ける“操作の伴走者”が付くイメージに近い。
文書や表計算、スライドといった主要アプリでは、共有したファイルを文脈として把握し、画面に見えている部分を越えて提案する。必要に応じてデスクトップや特定アプリの内容を共有し、そこから質問する流れが想定される。発表当日から世界で段階的に展開が始まったとされる。
同意と確認を前提に、広がる使い道
連携の範囲は利用者の同意を基盤にする設計だ。メールや予定表、ファイルの整理など、個人データに触れる操作では、共有の可否を明示し、重要な決定には承認を求める仕組みが組み込まれる。AI に任せる部分と自分で確かめる部分の線引きを、画面上で常に可視化する狙いがある。
同社は、実行権限を限定した「アクション」を通じて、予約や購入などの実世界の手配にも踏み出すと示唆している。権限は許可した範囲に閉じ、操作は履歴として追える構えだ。音声の合図と画面理解、行動の実行が一体化すれば、PC はより主体的に動く相棒へ近づく。
公式ブログは Vision の世界展開や手順表示を強調し、報道各社は音声起動「ヘイ、コパイロット」の導入を前面に伝えた。発表は2025年10月16日で、今後も機能は順次拡充される見通しだ。キーボードとマウスの隣に、声と目を持つ新しい窓が据わる光景が近づいている。