Bloombergのマーク・ガーマン氏によれば、このグラスは本格的なAR機能を搭載する未来のガジェットとは少し方向性が異なり、「軽量で日常使いできるスマートグラス」として登場する可能性が高いそう。つまり、MetaのRay-Ban StoriesやSnapchatのSpectaclesのようなポジションを狙っているようです。
開発中の専用チップは、Apple Watch用チップをベースにカスタム設計され、複数のカメラを制御できる構成になるとのこと。これにより、写真や動画撮影、AIとの連携などが日常的に可能になるかもしれません。
さらにガーマン氏によれば、Appleはこのスマートグラス以外にも、カメラ付きApple Watch(コードネーム「Nevis」)やカメラ搭載AirPods(「Glennie」)も開発中だとか。これらの新デバイスは、AI機能を活かす次世代ウェアラブルとして2027年頃の登場を見込んでいるそうです。
また、Appleは自社製のセルラーモデム「C2」「C3」、AIサーバーチップ「Baltra」、そして「M6」「M7」といった次世代Appleシリコンの開発も並行して進めており、ハードウェア戦略はかなり幅広く展開されています。
なお、ARグラスとしてはApple Vision Proがすでに登場していますが、3500ドル超のハイエンド機。今回のグラスはより軽くて日常的、価格も手に届く範囲での展開が期待されます。
果たして、Apple版スマートグラスはどんな体験を届けてくれるのか。今から楽しみにしておきましょう。
Reference from:Apple reportedly planning to introduce Meta Ray-Ban style smart glasses around 2027
#Apple のスマートグラス、成功のカギはこの2つ!(2025年4月28日)
Appleがスマートグラスを作るらしい―― でも、その成功には“2つの条件” が必要です。ブルームバーグによると、Appleのスマートグラスは、将来登場すると言われている完全ARグラス(Apple Glass)への“つなぎ”として考えられているそう。つまり、いわばMetaのRay-Banスマートグラス的な立ち位置です。
実際にMetaグラスを使っている筆者が「Apple版が成功するにはここが大事」と思うポイントを語ります。
Ray-Banメタスマートグラスってどんな感じ?
見た目はほぼ普通のサングラス。違いがあるとしたら、中にカメラ・マイク・スピーカーが詰まってるってこと。でもディスプレイはなし、AR機能もなし。つまり、スマートとはいえ“表示”はできない、という仕様。
主な機能はこの3つ。
⚫︎ AIがカメラで見たものについて教えてくれる
⚫︎ 音声でメッセージをやりとりできる
⚫︎ ハンズフリーでPOV(目線)写真&動画を撮れる
一番話題になってるのはAI機能だけど、正直これが一番使わないらしいです(笑)。
というのも、技術としては面白いけど、実用性はまだこれからって感じだそうです。
むしろ便利なのはこの2つ
⚫︎ 音声でメッセージが読まれる → 歩きながらでも楽!
⚫︎「ねぇメタ、写真撮って」で、ハンズフリー撮影 → 特に自転車中は最高!
要するに、“ちょっとしたことをスムーズにできる”のがグラスの本領。スマホを取り出すほどじゃない場面で、ふとした瞬間に役立つ感じです。
Appleグラスに求められる2つの絶対条件
では、Appleがこれから出すグラスに何が求められるのか?
筆者いわく、以下の2つが実現しないと「意味がない」とのこと。
① Siriが超優秀になってること
正直、今のSiriじゃキツい。Appleグラスでは「Siriだけで操作完結」が前提になるから、チャット形式で自然に会話→タスク実行できるくらいじゃないとダメ。
要するに、ChatGPT並みかそれ以上の賢さが求められる。現状は…残念ながらまだまだ。
② 写真&動画が撮れること
これは必須。でもAppleは、プライバシー面で悩んでいるようです。
メガネにカメラをつけたら、盗撮のリスクが増すんじゃないか?という話。
でも、iPhoneでも他人が何してるかなんて分からないですよね?
地図見てるのか、写真撮ってるのか、メッセージ打ってるのかなんて見分けつきません。つまり、グラスでも同じこと。
だから、写真・動画機能は「絶対に必要」だと筆者は主張しています。
結局、Appleはどう動く?
カギを握るのは“進化したSiri”と“カメラ機能”。
前者は技術的に時間がかかりそうだし、後者は倫理的な判断が求められます。
でもこの2つをクリアしないと、Appleのスマートグラスは「ただのおしゃれガジェット」で終わっちゃうかもしれません。
未来のApple Glassが、実用的でちゃんと「使いたくなるモノ」になるかどうか――
注目はそこにあります。
Reference from:Apple smart glasses only make sense if two things are true
Appleのスマートグラスは超軽量AI「FastVLM」で動く?(2025年5月12日)
Appleが2027年頃に発売を目指しているスマートグラス。その中核を担うかもしれないAI技術の詳細が、じわじわと明らかになってきました。どうやら、Apple独自の軽量AIモデル「FastVLM」がキーになるようです。
AppleのAI開発、実は着々と進行中
最近になって、AppleがAIを搭載した新しいウェアラブルデバイス、つまり「スマートグラス」や「カメラ付きAirPods」を開発中という噂が出回っています。ライバルのMetaのRay-Banメガネに対抗する格好ですね。
でも、AppleがどんなAIで勝負をかけるのか、気になりませんか?
答えのヒントになりそうなのが、Appleの機械学習チームが昨年発表したフレームワーク「MLX(Machine Learning eXchange)」です。
MLXは、Apple製チップ(Apple Silicon)向けに最適化されたAI開発ツール。MacやiPhoneなどのAppleデバイス上で、軽量かつ高速にAIモデルをトレーニング・実行できるのが特長です。
FastVLMって何がすごいの?
そして今回登場したのが、MLXを使って動作するApple独自のビジュアル言語モデル、「FastVLM」。
要するに、画像を理解して文章で説明したり、画像に関する質問に答えたりできるAIです。
これがかなり軽くて速い。
たとえば、
● 同等の他社モデルと比べて最大3.2倍高速
● サイズは約1/3.6に圧縮
● ユーザーが質問してから最初のレスポンスが出るまでの時間が最大85倍速
そして注目すべきは、「全部ローカルで処理できる」という点。
クラウドに頼らず、デバイス上でサクサク動く。つまり、プライバシーを守りながら、超高速な処理ができるってことです。
この仕組みの中核になっているのが、画像処理に特化したFastViTHDというエンコーダ。高解像度画像の処理を、高速かつ少ない電力で実現するよう設計されています。
スマートグラスだけじゃない
FastVLMのような軽量AIモデルは、スマートグラス以外にも応用が広がる可能性大。
たとえば、
● AirPodsにカメラを載せて、周囲の情報を理解させる
● Apple WatchにAIアシスタントを搭載して、目の前のものを認識できるようにする
そんな世界が、そう遠くない未来に来るかもしれません。
技術好きならGitHubへGO
FastVLMはGitHubにてオープンソースとして公開されており、さらに技術解説の論文もarXivで読めます(ちょっと難しいけど…)。
AppleがどんなAI体験を目指しているのか、その一端が垣間見える興味深い資料ですよ。
Reference from : Apple’s smart glasses might run on this AI model
There have been plenty of rumors about Apple’s AI glasses. Now, the company has just offered a peek at how their AI might work.
Apple製スマートグラス、ついに来年登場か?(2025年5月22日)
Appleが、あのRay-Ban×Metaスマートグラスの対抗馬をついに出すかもしれません。ブルームバーグの最新レポートによると、Appleは「来年末の発売」を目指して、AI搭載スマートグラスの開発を急加速中とのこと。
このメガネ、見た目はRay-Banライクだけど、カメラ・マイク・スピーカー内蔵で、Siri経由で音声操作OK。電話の応答、音楽再生、ナビゲーション、さらにはリアルタイム翻訳までサポート予定だとか。開発を率いるのは、Vision Proを手がけたチーム。つまり、本気です。
ただし、社内では「うちのAI、ちゃんと動くの?」という懸念も。今のところAppleはGoogle LensやOpenAIの技術を頼っている状況で、独自AIでの勝負にはまだ時間がかかるかも。
ちなみに、同じく開発中とされていたカメラ付きApple Watchは一旦お蔵入りになった模様。カメラ搭載のAirPodsはまだ進行中らしいです。
iPhoneとの連携やAppleエコシステムの強みを活かせるなら、Appleのスマートグラスは一気に定番になる可能性も。発売は2026年の見通しですが、当初の2027年より1年早まっているのは朗報です。
Reference from : Apple's AI glasses are coming sooner than we thought
Apple、スマートグラスで逆転なるか?AIの遅れを取り戻せる?
Appleがスマートグラス市場に本格参入しようとしている今、注目が集まっています。ただし今回のチャレンジは、単なる新製品開発ではなく、AIで出遅れたAppleが再起をかける“勝負の一手”かもしれません。
なぜAppleは苦境に立たされているのか?
Appleは、AI開発で他社に大きく水をあけられているのが現状です。その一方で、初のAI搭載スマートグラスのリリースを早めるという噂が流れています。これは、かなり大胆な“賭け”です。
過去を振り返ると、Apple Watchの成功を皮切りに勢いづいたように見えたAppleですが、その後は試練続きでした。
● Apple Vision Pro:話題にはなったものの、大成功とは言い難い
● Project Titan(Apple Car計画):方向性が定まらず、最終的には撤退
● AI開発:ChatGPTの登場後にようやく本腰を入れ始めたレベル
「プロジェクトのメンバーは別でも、企業としての集中力は有限」——これは大企業であっても例外ではありません。
その間に進んでいたMetaの快進撃
一方のMetaは、モバイル戦略での失敗を反省し、次世代テクノロジーへと早々にシフト。その結果生まれたのが、Ray-Banとのコラボによるスマートグラスです。
最初はSnapchatのSpectaclesと変わらない“見た目重視”のプロダクトでしたが、ここからMetaの本領発揮。
● 同社のAI科学者 Yann LeCun 氏の存在
● 独自のLlamaモデルによる生成AIへのシフト
ChatGPTに驚かされたのはMetaも同じでしたが、素早く手を打てたのが大きな違いでした。
Appleの“静かな逆襲”は始まっている?
Appleはというと、基本的には傍観者でした。ですが、実は「今だからこそやれること」が見えてきたのかもしれません。
Bloombergに語ったあるApple幹部の言葉が、それを象徴しています。
「AIの世界では、まず投資してみないと何ができるか分からない。でもAppleは違う。最終的なゴールが見えてから製品を作り始める会社だ。」
つまりAppleは、“行き当たりばったり”ではなく、“狙いすました一発”を狙っているということ。
今、スマートグラスという分野に照準を合わせた理由は、これまでの失敗から得た経験と、ようやく手にしつつあるAI技術の成熟が背景にあるのかもしれません。
今度こそ、外すわけにはいかない
Appleが直面している最大の課題は、「もう失敗できない」というプレッシャーです。
● 製品のビジョンはある
● 技術的な方向性も見え始めている
● しかし、時間がない
この“3点セット”が揃うと、プロジェクトはとても危うくなります。現実には、優れたビジョンだけでは成功しないし、タイミングを逃せば競争に負けます。
Appleはこれを理解しているでしょうか?
そして、今度こそ追いつき、追い越すことができるのでしょうか?
あなたは“スマートアシスタント付きメガネ”、欲しい?
最後に、あなた自身に問いかけてみてください。
● スマートグラスを通して、目の前の情報をリアルタイムで説明してくれるAIアシスタント
● 翻訳、地図案内、健康データの確認、すべて視界の中で完結
● そして、Appleらしいデザインと使いやすさ
…そんな未来、あなたはワクワクしますか?
Appleのスマートグラスがこの未来を実現できるかは、もうすぐわかるかもしれません。
Reference from:Apple absolutely cannot miss its smart glasses swing
Apple is painfully behind on AI development, and is speeding up the timeline to release its first AI-powered smart glasses.