日本語

当社は米国の関税の影響を常に監視しており、米国からの注文の価格が値上げされる可能性があります。米国外からの注文は影響を受けません。

GoogleのAIスマートグラスが登場、初代Google Glassとは全く似ていない

Google Glassを覚えていますか?2014年に登場した、ぎこちなくて高価なガジェットで、誰もがサイボーグのように見え、バーから追い出される原因にもなりましたね。さて、Googleはスマートグラスで戻ってきました。そして今度こそ、うまくいくかもしれません。

Google I/O 2025で、このテクノロジーの巨人は、顔に装着するコンピューティングの最新の試みを発表しました。その違いは歴然としています。これらは過去の扱いにくくて目立つテクノロジーアクセサリーではありません。代わりに、Googleは普通のメガネのように見えながら、強力なAIの力を秘めたものに賭けています。


Android XR Foundation

Googleは、これらのメガネをAndroid XR上に構築しました。これは、Gemini AI時代のために特別に設計された新しい拡張現実オペレーティングシステムです。Androidのよりスマートで空間認識能力の高い従兄弟のようなものだと考えてください。このプラットフォームはメガネだけでなく、軽量なメガネから本格的なヘッドセットまで、ウェアラブルデバイスのエコシステム全体を支えることを意図しています。

androidxr google ai glasses

本当の魔法は、Android XRがGeminiのマルチモーダル機能と出会ったときに起こります。あなたのメガネはあなたが見るものを見て、あなたが聞くものを聞き、それらすべてをリアルタイムで理解することができます。イタリア語のレストランメニューに視線を向ければ、メガネが瞬時に翻訳してくれます。本のページを見れば、Geminiはあなたが読むことなく要点を要約してくれます。


これらのメガネが実際にできること

ハードウェアのセットアップは驚くほどシンプルです。各ペアにはカメラ、マイク、スピーカーが含まれており、物理世界とデジタル世界をつなぐために必要な基本的なセンサーです。しかし、オプションのレンズ内ディスプレイが面白いところです。

オリジナルのGoogle Glassの目立つプリズムディスプレイとは異なり、このシステムはパーソナルヘッドアップディスプレイのように情報を直接視界に投影します。必要なときにテキストメッセージが表示されます。ナビゲーションの矢印が街中を案内します。外国語の会話にはリアルタイム翻訳が浮かび上がります。

google ai glasses

スマートフォンの統合は、無理やりではなく自然に感じられます。これらのメガネはスマートフォンの代替ではなく、スマートフォンと連携して機能します。手ぶらで写真を撮ったり、音楽再生をコントロールしたり、ポケットから取り出すことなくカレンダーを確認したりできます。

ショーの主役を奪った翻訳デモ

Googleのライブ翻訳機能は、ここでのキラーアプリかもしれません。I/Oでのデモンストレーション中、メガネは異なる言語での会話のリアルタイム字幕を表示し、実質的に言語の壁をリアルタイムで打ち破りました。これは、何百万人もの人々が日々直面している実際の問題を解決する、SFのような機能です。

live translation demo google ai glasses

このシステムはナビゲーションもエレガントに処理します。常に携帯電話で道案内を確認する代わりに、ターンバイターンガイドが周辺視野に表示されます。見慣れない街を歩いていると、近くのレストラン、ランドマーク、交通手段に関する関連情報が自動的に表示されます。


パートナーシップ戦略

Googleは過去の過ちから学びました。単独で進めるのではなく、ファッションと快適さを実際に理解している確立されたアイウェアブランドと提携しています。Warby ParkerとGentle Monsterは、人々がメールをチェックするためだけでなく、一日中着用したいと思うようなメガネを開発するために協力しています。

同社はまた、Samsungとの既存のパートナーシップをXRヘッドセットだけでなく、メガネ開発にも拡大しています。一方、XREALはGoogleと協力して、Project Auraという開発者向けのARメガネイニシアチブに取り組んでいます。これは、これらのデバイスが成功するために必要なソフトウェアエコシステムを構築するのに役立つはずです。

XREAL Project Aura Google I/O glasses

Googleのコミットメントは深く、Warby Parkerに製品開発と商業化のために最大1億5000万ドルを投資しており、マイルストーン達成に応じて追加の資金提供の可能性もあります。


競合他社との比較

スマートグラス市場は急速に過熱しています。MetaのRay-Banとのコラボレーション製品はすでに店頭に並んでおり、Appleも2027年以降の発売に向けて独自のメガネを開発中と報じられています。

Googleのアプローチは重要な点で異なります。Metaがソーシャルメディアとの統合とコンテンツ作成に注力しているのに対し、Googleは実用的なAIアシスタンスを重視しています。オプションのレンズ内ディスプレイは、音声フィードバックに完全に依存している現在のMetaグラスに比べて、Googleに優位性をもたらします。Gmail、Googleマップ、カレンダー、GoogleフォトといったGoogleのサービスとの深い統合は、Androidユーザーにとってより一貫した体験を生み出します。

Gemini AIとの統合も、これらを際立たせています。Metaも独自のAI機能を備えていますが、Googleのモデルは視覚情報の理解と応答に優れており、拡張現実アプリケーションに特に適しています。


タイムラインの現実的な見方

これらのメガネが今年中に購入できると期待しないでください。Googleは2025年後半に開発者向けユニットと限定的なテストプログラムを開始し、消費者向けバージョンは早くても2026年に登場する見込みです。プライバシーの懸念や解決すべき技術的な課題を考えると、この慎重なアプローチは理にかなっています。

同社は初期のテスターと密接に協力してプライバシー問題に取り組んでいます。常時オンのカメラとマイクは、監視と同意に関して正当な懸念を引き起こします。確立されたアイウェアブランドとのパートナーシップは、快適さとスタイルに役立ち、処方箋レンズを必要とする人々にもこれらのメガネが機能することを保証するはずです。


日常生活への影響

Googleがうまく実行すれば、これらのメガネはAIアシスタンスを邪魔ではなく、本当に周囲に溶け込むものにする可能性があります。一日に何十回も携帯電話を取り出す代わりに、必要な情報が単に表示されるだけになるでしょう。

アクセシビリティへの影響は特に有望です。Googleは聴覚や視覚に困難を抱えるユーザーへの潜在的な利点を強調しており、これらのメガネが単なるライフスタイルガジェットではなく、支援技術として機能することを示唆しています。

google i/o glasses AI

旅行者にとっては、翻訳機能とナビゲーション機能は革新的でしょう。ビジネスパーソンにとっては、カレンダー情報、メッセージ、写真へのハンズフリーアクセスは、会議中に携帯電話を常にチェックする社会的なぎこちなさなしに生産性を向上させる可能性があります。


全体像

Googleのスマートグラスは単なる別のガジェット以上のものを表しています。それは、アンビエントコンピューティングが主流になることへの賭けです。このプロジェクトの成功は、AIアシスタンスがスマートフォンアプリを超えて進化し、私たちの日常生活に真に統合されるかどうかを決定する可能性があります。

同社は明らかに長期的な戦略を立てています。ファッションブランドとのパートナーシップを築き、開発に多額の投資を行い、プライバシー問題に対処するために時間をかけることで、GoogleはオリジナルのGlassプロジェクトを失敗させた誤りを避けることを決意しているようです。

消費者が顔に装着するコンピューティングを受け入れる準備ができているかどうかは、まだ未解決の問題です。しかし、より良いデザイン、実用的な機能、そして強力なAI機能を備えたGoogleの最新のスマートグラスの試みは、最終的にこのテクノロジーを一般ユーザーに浸透させるかもしれません。

今後の開発者テストとユーザーフィードバックの1年間が重要になるでしょう。Googleが、過去の試みを悩ませてきたプライバシーの懸念、バッテリー寿命、社会的な受容性の問題を解決できれば、スマートグラスをスマートフォンと同じくらい普及させる製品を手に入れることができるかもしれません。

コメントを残す

コメントが公開される前に承認する必要があります。